顶尖美国硅谷医疗科技公司,纽交所上市公司,医疗器械癌症治疗设备及软件领域的领军企业,工作地点北京亦庄运成街近地铁,工资具有行业竞争力,福利完善,免费午餐班车健身房,企业文化人性化,职业发展空间大。
Job Responsibilities: 参与设计,管理和维护系统框架和架构(Big Data Lake, Data Management Platform (DMP) and others),并且为客户提供符合公司国际标准的解决方案; 和产品、架构设计团队以及其他部门协同合作,为中国市场数据分析和数据工程建立最佳的工业实践(基于Apache Hadoop & Berkeley Spark ecosystem evolution and possible cloud scenarios); 为医疗产品解决方案和项目负责数据获取(1st, 2nd and 3rd party data) 负责Hadoop & Spark集群解决方案的设计,实施和新功能的引入 负责Spark, Sparkstreaming/Storm/Flink开发框架的实施 负责开发和维护ETL分布式数据流水线 负责开发相关框架和工具(mostly Spark, Scala, Python, Java),用以提高数据处理和数据模型构建的效率; 负责构建结构化、半结构化、非结构化数据仓库 Be in charge with artificial, automatic or analytical solutions like DMP design and development for any healthcare related service or engine Be in charge with OLTP and OLAP dataflow build Research and promote new ways of data engineering within the team, cultivate a constant flow of information and a learning environment for the data scientists 及时向中国区和美国总部汇报工作 Job Requirements: 计算机或数学等专业本科及以上学历,必须具备较高的学术水平 3年或以上Hadoop, Spark, Storm, Hive, HBase开发经验 熟悉2中或以上开发工具:Scala, Python or R , Java, GO 熟悉大数据技术Experience with Big Data Technologies (e.g Spark, NiFi, Kafka, Flume, ELK) 熟悉至少1种数据库技术(SQL Server, PostgreSQL, MySQL and Oracle); 熟悉NoSQL technologies HBase, MongoDB and Cassandra; 熟悉至少一种通用数据分析工具:Python or R 熟悉数据管理平台技术DMP (data management platform including analytics & recommendation engine) 有数据可视化处理经验者优先(i.e. proficient in Tableau or Qlikview); 了解Enterprise Datalake platform design, development and daily operation优先; 有使用SELS Linux and CDH/P经验者优先 Deeply cooperating with Business Unit and data scientist about data analysis case, develop and deploy the case to production HDP cluster Familiar with security implementation for OLAP/OLTP and Bigdata framework 良好的逻辑分析能力能够化繁为简处理复杂结构的医学数据并清晰简明的向内外部用户阐明和沟通; 快速学习能力,良好的英语口语和沟通能力,可以和公司内行业内跨国团队协同工作。 如感兴趣请联系 cv # awcconsult.com (把#换成@,中间空格去掉)
|