**你的任务** 作为数据平台工程师,你将通过应用数据架构、API和数据交付与转换的知识,以可靠的方式来发展我们的业务,并帮助我们在全球范围内扩展。 理想的候选人对开发软件和处理数据充满热情,能够挑战现状,并重新设计现有解决方案。此外,理想的候选人是一个优秀的团队成员,总是愿意与他人合作。 你负责帮助构建和维护Mural的数据管道架构,以及编写API和工具,帮助其他团队处理数据。你将与产品、分析和数据科学团队紧密合作,帮助他们实现目标。你将直接向数据工程经理汇报。 **在这个角色中,你将:** - 帮助构建平台、工具和API,这对于使其他团队能够处理数据至关重要。 - 改进现有的数据平台并提出解决方案。 - 与产品团队紧密合作,帮助他们探索实验性数据驱动功能的可能性,帮助他们缩小初步或不明确的要求,并构建支持这些功能的工具和API。强烈的分析态度是必需的。 - 高效地处理来自多个来源和目的地的大量数据,包括关系型和非关系型数据库以及外部系统,无论是批处理还是实时交付。 - 遵循现代开发标准和方法论,如代码审查、单元测试、持续集成和敏捷方法。 - 作为一个团队的一部分工作。我们重视愿意分享知识和喜欢与他人合作的团队成员。 - 表现出主动性,完成你的任务,并向你的团队和所有客户、合作伙伴提供及时的状态更新。 - 全权负责你构建的解决方案。这意味着分析要求,构建、跟踪和监控它们,并在出现问题时解决问题。 **你的资料** - 2年以上在任何云环境中维护Databricks的实践经验 - 1-2年使用大数据工具(Spark、Hudi、Kafka)构建数据管道的工程经验 - 熟悉Python软件开发 - 对各种数据库(理想情况下包括关系型和非关系型)的工作知识 - 高级关系数据库经验,包括编写和导航高度复杂的SQL查询的能力 - 管理Databricks集群和作业配置的经验 - 使用Databricks构建数据管道和调度Databricks作业的实践经验 - 对各种数据库(理想情况下包括关系型和非关系型)的工作知识 - 构建生产数据管道的经验 - 出色的英语能力,包括书面和口头 - 能够独立远程工作 **加分项:** - 有Airflow和dbt的经验 - 在大规模的ETL作业设计和开发、ELT/ETL解决方案、数据湖和数据仓库方面的经验 - 在数据迁移、数据库操作和维护方面的成功记录 - 分析/MPP数据仓库优化经验 - 有Unity Catalog(Databricks)的经验 请用英语提交你的简历。#LI-Remote #LI-AB1
该远程工作信息来源于站外平台,本站仅提供部分信息展示与订阅服务,更多请查看免责声明。