Mô Tả Công Việc
Tham gia phát triển và triển khai các dịch vụ sử dụng các công nghệ Big Data: Hadoop ecosystem, Kafka, Spark, Airflow, …
- Nghiên cứu, xây dựng, tối ưu các Job ETL có khả năng mở rộng linh hoạt với độ tin cậy cao, phục vụ cho việc khai thác/ingest, tổng hợp các loại dữ liệu từ nhiều nguồn khác nhau;
- Quy hoạch, thiết kế các công cụ nền tảng, công cụ giám sát, cảnh báo KPI chất lượng số liệu… để tự động giám sát hiện trạng của hệ thống, chất lượng dữ liệu giúp đưa ra các cảnh báo kịp cho team
- Nghiên cứu và quy hoạch các công cụ khai thác, phân tích số liệu (Big Data OLAP, Notebook …)
Yêu Cầu Công Việc
Tốt nghiệp ĐH loại Khá trở lên chuyên ngành: Khoa học dữ liệu, Khoa học máy tính, CNTT, Toán học ứng dụng, hoặc chuyên ngành khác liên quan;
- Thành thạo các ngôn ngữ truy vấn CSDL như SQL và NoSQL .
- Kiến thức về lập trình lưu trữ, xử lý dữ liệu phân tán, xử lý dữ liệu lớn (Hadoop, Spark, ElasticSearch, Kafka, …)
- Kiến thức về xây dựng, tối ưu luồng xử lý dữ liệu (batch processing, stream procesing, …);
- Kỹ năng sử dụng ngôn ngữ lập trình (Java, Python, Scala, …);
- Có chứng chỉ quốc tế về Data Enginner (AWS, CCA, CCP, IBM Certified Data Engineer, Google Professional Data Engineer …) là một lợi thế
- Tư duy tốt, có khả năng nghiên cứu, đánh giá và cập nhật công nghệ mới.
Hình thức
Quyền Lợi
- Thời gian làm việc: 8 - 17h từ thứ 2 - thứ 6
- Mức lương cạnh tranh
- Mua bảo hiểm VBI
Mức lương
Thỏa thuận
Báo cáo tin tuyển dụng: Nếu bạn thấy rằng tin tuyển dụng này không đúng hoặc có dấu hiệu lừa đảo,
hãy phản ánh với chúng tôi.
Tham khảo: 10 Dấu hiệu nhận biết hành vi lừa đảo qua tin tuyển dụng.
Tham khảo: 10 Dấu hiệu nhận biết hành vi lừa đảo qua tin tuyển dụng.