我们正在建设具有本地数据中心和多个地区的公共云的数据平台。我们的技术栈相当现代化。我们使用Kubernetes、Istio、Kong、Kafka、Flink、Spark。所有新的应用程序都是以容器方式运行的。我们的云基础设施完全使用基础设施即代码(IAC)和配置管理工具进行描述和管理。在数据层面,技术栈建立在包括Spark、Kafka、Hadoop在内的技术之上。我们使用VictoriaMetrics、Prometheus和Grafana进行监控,使用ElasticSearch、Kibana和Fluentd进行日志记录。
职责:
• 您将参与重要项目,改进我们的数据基础设施的数据可用性、可扩展性和可靠性。
• 您将管理多个Kubernetes、Kafka和Hadoop集群。
• 您将管理AWS和Azure中的资源。
• 您将协助我们的系统架构团队改进本地数据平台。
• 您将设计、架构、改进和支持新的和现有的工具,帮助我们在规模上运营。
• 您将使用Terraform、Packer、Chef和Ansible等IAC工具拥有和运营AWS/Azure中的云基础设施。
• 最后,加入我们的值班轮班。
资格:
• 对Linux、网络和生产系统有深入的了解。
• 有10年以上构建和维护基础设施和服务的经验。
• 有管理生产级别的Kubernetes集群的经验,并对保护工作负载有深入的理解。
• 对Kafka、Hadoop和Spark有深入的理解。
• 熟练掌握脚本编程。
• 有使用Terraform、Packer、Chef和Ansible等IAC和配置管理工具的经验。
• 计算机工程或同等学历学士学位。
优先条件:
• 由于工作性质,优先考虑美国公民,但并非强制要求。
• 有一些为联邦客户提供基础设施服务的经验。