早上好
请按照客户arjun@srivensys.com的要求与我分享更新后的简历
Hadoop开发人员
9个月(预计会延长)
丹佛科罗拉多州或芝加哥伊利诺伊州的混合工作环境
他们将与一个约30人的团队合作。团队主要在北卡罗来纳州夏洛特市,但还有一些其他市场的团队成员。非常合作,紧密结合的团队。在这个角色中,这个位置要求每周3天在现场工作/2天远程工作在以下地点:
伊利诺伊州芝加哥; 科罗拉多州丹佛市(也会考虑其他核心BoA市场)
多个职位空缺!!!
顶级技能-必备技能
Hadoop
Hive
SPARK
Kafka
Apachespot
Erp
Cloud DE
Jupyter
SQL
顶级技能详细信息
• 在Hadoop开发/编程经验方面有5-8年的经验,工程解决方案,将数据集引入集群。有使用Hadoop/大数据和分布式系统的经验
2)Spark/Scala经验-需要使用这些或impala和hive开发,以提取数据,与SPARK结构化流一起工作
基本的SQL技能之一或多个MySQL,HIVE,Impala,SPARK SQL
从消息队列、文件共享、REST API、关系数据库等获取数据的经验,并具有json、csv、xml、parquet等数据格式的经验
具有Spark、Sqoop、Kafka、MapReduce、HBase、SOLR、CDP或HDP、Cloudera或Hortonworks、Elastic Search、Kibana、Jupyter Notebook等工作经验
至少一种Scala、Python、PHP或Shell脚本的实际编程经验
必须具备Linux操作系统的经验和熟练度
解决平台问题和连接问题
具有使用Cloudera管理器门户和YARN的经验
在共享集群/云环境中解决复杂的资源争用问题的经验
在hbase中开发后端以将api与javascript和/或python连接的经验
有在敏捷方法论中工作的经验,以满足不断变化的客户需求。
职位描述
我们邀请您加入美国银行全球信息安全组织的数据战略与工程团队,担任大数据平台开发人员/工程师。我们是一个紧密团结、支持性强的社区,致力于为客户提供最佳体验,同时对他们的独特需求保持敏感。
在这个角色中,您将帮助构建新的数据流水线,确定现有数据缺口,并提供自动化解决方案,以提供高级分析能力和丰富的数据给支持运营团队的应用程序。您还将负责从记录系统获取数据,并建立实时数据流以以自动化方式进行分析。
例如,负责第三方风险评估的网络安全保证小组使用这些分析仪表板进行评估,负责监控和恶意软件问题的网络安全防御小组也使用这些分析。这些小组会找到这个团队,并提出他们需要的需求/需要帮助解决的分析类型,然后这个团队会根据这些需求在Hadoop中创建,并将其移至UI以供分析目的。
他们正在寻找有使用KafkaConnect、HBASE、ApacheSpot来增加集群功能的候选人。他们正在建设并确保集群非常功能齐全。首选具有强大的hbase和SPARK经验的候选人。他们正在寻找具有将hbase经验与应用程序和API相结合的候选人,以便从中提取数据。他们将还参与数据摄取的另一个项目。他们将使用Flume、Spark和Hive。
额外的技能和资格
强大的SQL技能之一或多个MySQL,HIVE,Impala,SPARK SQL
具有spark/MapReduce或SQL作业的性能调优经验
具有近实时和批处理数据流水线的端到端设计和构建过程的经验
使用SVN、Git、Bit Bucket等源代码和版本控制系统的经验
使用Jenkins和Jar管理的经验
在Hadoop/大数据相关领域的工作经验
熟练使用Hive、Spark、HBase、Sqoop、Impala、Kafka、Flume、Oozie、MapReduce等工具
具有Java、Scala、Python或Shell脚本等编程经验
熟练掌握SQL和数据建模
在敏捷开发过程中工作的经验,并对软件开发生命周期的各个阶段有深入的理解
对Hadoop生态系统有深入的理解,对Hadoop架构组件有强大的概念性知识
自我激励,能够在最少的监督下工作,并能够与不同技能组成的团队合作
能够理解客户需求并提供正确的解决方案
具有解决复杂问题的强大分析能力
渴望解决问题并深入研究潜在问题
具备适应并持续学习新技术的能力是重要的
员工价值主张(EVP)
薪资合同-在此合同上享受6个TEK假期(假期工资)和5个银行假期(保证工资,而不是假期工资,但保证每周40小时的工资)。
工作环境
他们将与一个约30人的团队合作。团队主要在北卡罗来纳州夏洛特市,但还有一些其他市场的团队成员。非常合作,紧密结合的团队。在这个角色中,这个位置要求每周3天在现场工作/2天远程工作在以下地点:
伊利诺伊州芝加哥; 科罗拉多州丹佛市(也会考虑其他核心BoA市场)
业务驱动/客户影响
有几个驱动因素,其中之一是增强他们的Jupyter Hub工具和SIEM工具以及他们的TPCA-第三方控制和评估-试图确定要提问的问题,然后根据以前提出的这些问题构建模型。例如:Home Depot-如果他们的交易额达到300万美元,或者TEKsystems与我们进行大量交易并对我们进行评估,是否意味着200或300个问题,仅更好地使用他们已有的数据而不是每次重新发明轮子。他们的数据目前散布在电子表格中,没有一种统一的方式来查找这些信息或数据,并且需要改进/使这更高效,以供CSA-特别是Byron的团队使用。Allans团队将向Brent Bohmont的团队提供数据和报告,后者将开发UI,这将是Byrons团队实际上看到和使用的。UI是内部构建的/非现成的。他的团队将为UI工作流程构建应用程序,将其在队列中整合,供他们查看和提高效率。
外部社区职位描述
我们正在寻找多个Hadoop开发人员。
谢谢和问候,
Arjun K
招聘部门经理
Sriven Systems, Inc
直线:6313156999 / 分机:1005
arjun@srivensys.com
https://www.linkedin.com/in/arjun-k-2302b62a/
F: 516-908-3640
545 S. Kimball大道,100号套房,Southlake,TX 76092(新地址)
www.srivensys.com
连续8年获得“Inc 500&Inc 5000:美国增长最快的公司”