负责大数据相关技术栈的搭建 搭建 ETL 流程,进行数据集成、清洗、转换和加载 使用 Hadoop、Spark、Flink 等大数据框架处理和分析海量数据。 帮助设计和实施数据模型。 根据要求实时提取 多个平台的数据; 构建独立的计算方式,对数据进行二次加工 可以对提取后的数据进行更新操作
Success story sharing
要求有安装端 pc端 web端 iso端用于公司内部项目交流和工作安排,需要可以发图片 发视频的聊天软件