Mô tả công việc
• Tham gia thiết kế, xây dựng và duy trì các pipeline dữ liệu (ETL/ELT) từ nhiều nguồn khác nhau;
• Hỗ trợ phát triển và duy trì kho dữ liệu (Data Warehouse) phục vụ mục tiêu phân tích và báo cáo;
• Vận hành, triển khai các job ETL, tổng hợp dữ liệu;
• Đảm bảo chất lượng dữ liệu: kiểm tra, làm sạch và xử lý dữ liệu lỗi;
• Học hỏi, cập nhật các công nghệ mới để tối ưu hóa hiệu suất hệ thống dữ liệu;
• Tham gia triển khai các công cụ giám sát và cảnh báo để đảm bảo hệ thống dữ liệu hoạt động ổn định;
• Phối hợp với các phòng ban để hiểu nhu cầu dữ liệu và hỗ trợ triển khai các giải pháp phù hợp;
• Hỗ trợ các nhiệm vụ khác trong phạm vi công việc khi được yêu cầu.
• Tốt nghiệp Đại học chuyên ngành CNTT hoặc các chuyên ngành có liên quan;
• Có từ 3 năm kinh nghiệm ở vị trí tương đương;
• Có kinh nghiệm làm việc với các hệ quản trị cơ sở dữ liệu như PostgreSQL, SQL Server, Oracle, Snowflake hoặc BigQuery;
• Có khả năng lập trình chuyên sâu java/python;
• Kinh nghiệm làm việc với các công cụ ETL như Airflow, dbt, Talend, Informatica;
• Hiểu biết về các nền tảng xử lý dữ liệu lớn như Apache Spark, Kafka, Hadoop;
• Có kinh nghiệm triển khai hệ thống dữ liệu trên nền tảng AWS, Azure hoặc Google Cloud Platform (GCP);
• Tư duy tốt, có khả năng nghiên cứu, đánh giá và cập nhật công nghệ mới.
Thưởng
Bảo hiểm
Chăm sóc sức khỏe
Chế độ nghỉ phép
Đào tạo
Du Lịch
Du lịch nước ngoài
Phụ cấp
Đồng phục
Tăng lương
Công tác phí
Chú ý: Nếu bạn thấy rằng tin tuyển dụng này không đúng hoặc có dấu hiệu lừa đảo, hãy gửi phản ánh đến chúng tôi.