地点:加利福尼亚州圣尼维尔 日制(第一天现场) 混合角色
持续时间1年
所需经验/技能:1. 计算机科学、信息技术或相关领域的学士学位,具有5年计算机编程、软件开发或相关经验2. 3年以上的扎实Java编程经验,2年以上使用Hadoop进行大数据解决方案设计、实施和支持的经验,使用Hive、Spark、Drill、Impala、HBase3. 熟练掌握Unix、GCP和其他关系型数据库。有@Scale经验者优先考虑4. 良好的沟通和解决问题的能力
• 需要/必需的前三项技能是什么?
Google Cloud平台工作、SPARK编码经验、JAVA编码经验
• 有哪些技能和/或经验会使顶级候选人脱颖而出?
o 对您来说,什么样的候选人简介最引人注目?
在云环境下的大数据ETL作业工作,合规经验
• 这个人的日常职责是什么?
编写ETL作业,为分析作业开发系统,Google平台作业优化,Spark编码,调试
• 他将参与的项目是什么?
o 他们将如何为项目做出贡献?
客户数据湖合规性和州级合规性支持
• 其他工作细节:编程语言经验(Java、Scala)使用Hadoop、Spark等分布式架构的经验首选资格:数据工程、机器学习知识了解隐私合规性,如CPRA在GCP云中处理大数据集的经验