Bằng cấp: Đại học chuyên ngành Công nghệ thông tin/Toán tin/Khoa học máy tính/Điện tử viễn thông hoặc các lĩnh vực liên quan.
Chứng chỉ đào tạo của các giải pháp/công cụ liên quan đến ETL/BI/Data platforms/Data streaming/Điện toán đám mây.
Kinh nghiệm: tối thiểu 10 năm kinh nghiệm trong lĩnh vực công nghệ phần mềm, phân tích dữ liệu, khoa học dữ liệu.
Có kinh nghiệm thiết kế và triển khai các tiến trình ETL/ELT, hiểu biết sâu về ít nhất 1 nền tảng ETL platforms (ví dụ Oracle ODI, SAP BODS, Apache Airflow, Informatica, IBM,...).
Thành thạo một trong các ngôn ngữ lập trình Python, Java hoặc Scala, với kiến thức vững về SQL và hệ thống cơ sở dữ liệu ( PostgreSQL, MySQL, Oracle).
Hiểu biết và có kinh nghiệm triển khai Data warehouse/Data Lake, hiểu biết về giải pháp của các hãng: Oracle, SAP, Teradata, IBM, ...
Có kinh nghiệm thực tế triển khai một trong các giải pháp lakehouse/data platforms (ví dụ: Cloudera, DataBricks, Hortonwork...).
Có kinh nghiệm tích hợp dữ liệu, phát triển ETL, data pipeline bằng các công cụ trên nền tảng Cloud (GCP, EWS hoặc Azure).
Hiểu biết về kiến trúc dữ liệu (ví dụ: OLAP, Data Warehousing, Data Lake, and/or Data Mesh).
Hiểu biết, có kinh nghiệm thiết kế và xây dựng các giải pháp xử lý dữ liệu theo luồng (ví dụ thực hiện với các công cụ Apache Storm, Kafka, Spark Streaming...).
Có kinh nghiệm về triển khai giải pháp quản trị chất lượng dữ liệu, bao gồm cả những môi trường phân tán.
Có kinh nghiệm phát triển công cụ BI phục vụ yêu cầu nghiệp vụ là điểm cộng.
Hiểu biết về kiến trúc object storage.
Có kinh nghiệm tư vấn kỹ thuật, đào tạo, dẫn dắt thay đổi.
Lập kế hoạch và quản lý thời gian hiệu quả.
Kỹ năng giải quyết vấn đề tốt.
Bằng cấp: Đại học chuyên ngành Công nghệ thông tin/Toán tin/Khoa học máy tính/Điện tử viễn thông hoặc các lĩnh vực liên quan.
Chứng chỉ đào tạo của các giải pháp/công cụ liên quan đến ETL/BI/Data platforms/Data streaming/Điện toán đám mây.
Kinh nghiệm: tối thiểu 10 năm kinh nghiệm trong lĩnh vực công nghệ phần mềm, phân tích dữ liệu, khoa học dữ liệu.
Có kinh nghiệm thiết kế và triển khai các tiến trình ETL/ELT, hiểu biết sâu về ít nhất 1 nền tảng ETL platforms (ví dụ Oracle ODI, SAP BODS, Apache Airflow, Informatica, IBM,...).
Thành thạo một trong các ngôn ngữ lập trình Python, Java hoặc Scala, với kiến thức vững về SQL và hệ thống cơ sở dữ liệu ( PostgreSQL, MySQL, Oracle).
Hiểu biết và có kinh nghiệm triển khai Data warehouse/Data Lake, hiểu biết về giải pháp của các hãng: Oracle, SAP, Teradata, IBM, ...
Có kinh nghiệm thực tế triển khai một trong các giải pháp lakehouse/data platforms (ví dụ: Cloudera, DataBricks, Hortonwork...).
Có kinh nghiệm tích hợp dữ liệu, phát triển ETL, data pipeline bằng các công cụ trên nền tảng Cloud (GCP, EWS hoặc Azure).
Hiểu biết về kiến trúc dữ liệu (ví dụ: OLAP, Data Warehousing, Data Lake, and/or Data Mesh).
Hiểu biết, có kinh nghiệm thiết kế và xây dựng các giải pháp xử lý dữ liệu theo luồng (ví dụ thực hiện với các công cụ Apache Storm, Kafka, Spark Streaming...).
Có kinh nghiệm về triển khai giải pháp quản trị chất lượng dữ liệu, bao gồm cả những môi trường phân tán.
Có kinh nghiệm phát triển công cụ BI phục vụ yêu cầu nghiệp vụ là điểm cộng.
Hiểu biết về kiến trúc object storage.
Có kinh nghiệm tư vấn kỹ thuật, đào tạo, dẫn dắt thay đổi.
Lập kế hoạch và quản lý thời gian hiệu quả.
Kỹ năng giải quyết vấn đề tốt.