職位名稱:數據研發工程師
1.工作地點: 北京
2.招聘人數: 1人
3.工作性質: 全職
崗位職責
1.負責企業級數據倉庫的設計、開發與優化,構建穩定高效的ETL流程;
2.參與大數據平臺的搭建與維護,優化數據存儲、計算和查詢性能;
3.根據業務需求,完成數據建模(維度建模、分層架構設計)及數據標準化;
4.開發和維護數據抽取、清洗、轉換和加載(ETL)任務,確保數據準確性和時效性;
5.優化SQL查詢性能,解決大數據量下的數據處理瓶頸;
6.參與實時數據計算(如Flink、Kafka Stream)及流式數據處理;
7.協助BI團隊完成數據可視化分析,提供高質量的數據服務;
8.負責數據治理、數據質量監控及數據血緣分析,提升數據可靠性。
任職要求
1.本科及以上學歷,計算機、軟件工程、數據科學、信息管理等相關專業優先;
2.3年以上數據工程或數據平臺相關工作經驗;
3.熟練掌握SQL,能編寫復雜查詢并進行性能優化,具備大數據量處理經驗;
4.熟悉關系型數據庫(MySQL/Oracle/SQL Server),掌握索引優化、執行計劃分析、事務控制等技能;
5.至少掌握一種NoSQL數據庫(如Elasticsearch/MongoDB),并有實際項目經驗;
6.熟悉分布式數據庫架構(如分庫分表、讀寫分離、集群部署),有線上環境調優經驗;
7.熟練使用ETL工具(如Kettle/DataX/Airflow等),能獨立完成數據集成與調度;
8.具備數據倉庫建設經驗,熟悉ODS/DWD/DWS等分層架構,能進行維度建模;
9.熟悉Hadoop/Hive,有大數據處理或數倉開發經驗;
10.掌握至少一種BI/報表工具(如FineBI/Tableau/Power BI),能協助數據可視化;
11.具備數據建模能力,能從業務需求出發設計邏輯模型與物理模型。
加分項
1.有向量數據庫(Milvus/FAISS/Weaviate等)項目經驗;
2.熟悉實時數倉或流式計算(Flink/Kafka Stream);
3.了解Spark/Presto等計算引擎,能進行性能調優;
4.有數據治理、數據質量監控、數據血緣分析經驗;
5.參與過從0到1搭建數據平臺或企業級BI體系。
簡歷請發至:lvyk@cnis.ac.cn(郵件標題格式:姓名+年齡+學歷+應聘職位名稱)
職位名稱:數據研發工程師
1.工作地點: 北京
2.招聘人數: 1人
3.工作性質: 全職
崗位職責
1.負責企業級數據倉庫的設計、開發與優化,構建穩定高效的ETL流程;
2.參與大數據平臺的搭建與維護,優化數據存儲、計算和查詢性能;
3.根據業務需求,完成數據建模(維度建模、分層架構設計)及數據標準化;
4.開發和維護數據抽取、清洗、轉換和加載(ETL)任務,確保數據準確性和時效性;
5.優化SQL查詢性能,解決大數據量下的數據處理瓶頸;
6.參與實時數據計算(如Flink、Kafka Stream)及流式數據處理;
7.協助BI團隊完成數據可視化分析,提供高質量的數據服務;
8.負責數據治理、數據質量監控及數據血緣分析,提升數據可靠性。
任職要求
1.本科及以上學歷,計算機、軟件工程、數據科學、信息管理等相關專業優先;
2.3年以上數據工程或數據平臺相關工作經驗;
3.熟練掌握SQL,能編寫復雜查詢并進行性能優化,具備大數據量處理經驗;
4.熟悉關系型數據庫(MySQL/Oracle/SQL Server),掌握索引優化、執行計劃分析、事務控制等技能;
5.至少掌握一種NoSQL數據庫(如Elasticsearch/MongoDB),并有實際項目經驗;
6.熟悉分布式數據庫架構(如分庫分表、讀寫分離、集群部署),有線上環境調優經驗;
7.熟練使用ETL工具(如Kettle/DataX/Airflow等),能獨立完成數據集成與調度;
8.具備數據倉庫建設經驗,熟悉ODS/DWD/DWS等分層架構,能進行維度建模;
9.熟悉Hadoop/Hive,有大數據處理或數倉開發經驗;
10.掌握至少一種BI/報表工具(如FineBI/Tableau/Power BI),能協助數據可視化;
11.具備數據建模能力,能從業務需求出發設計邏輯模型與物理模型。
加分項
1.有向量數據庫(Milvus/FAISS/Weaviate等)項目經驗;
2.熟悉實時數倉或流式計算(Flink/Kafka Stream);
3.了解Spark/Presto等計算引擎,能進行性能調優;
4.有數據治理、數據質量監控、數據血緣分析經驗;
5.參與過從0到1搭建數據平臺或企業級BI體系。
簡歷請發至:lvyk@cnis.ac.cn(郵件標題格式:姓名+年齡+學歷+應聘職位名稱)