Mô tả công việc
Xây dựng & vận hành pipeline dữ liệu:
● Phát triển và duy trì các pipeline ETL/ELT trên Databricks bằng PySpark, Spark SQL, Delta Lake.
● Xây dựng framework ingest dữ liệu ổn định, có khả năng mở rộng, tích hợp với các dịch vụ AWS:
- Kafka/MSK hoặc Kinesis (xử lý dữ liệu realtime)
- S3, Glue, Lambda, Step Functions
- RDS/Redshift hoặc hệ CSDL on- premise
● Tự động hóa quy trình xử lý dữ liệu bằng Databricks Workflows, Airflow hoặc công cụ tương đương.
Kiến trúc Lakehouse:
● Triển khai và tối ưu Delta Lake, bao gồm:
- Delta tables
- ACID transactions
- Time travel và tối ưu hiệu năng
- Schema evolution
● Hỗ trợ thiết kế mô hình dữ liệu phục vụ:
- Machine Learning
- Báo cáo quản lý, báo cáo tuân thủ/nghiệp vụ ngân hàng
- Phân tích, báo cáo
Chất lượng dữ liệu, bảo mật & quản trị
● Triển khai metadata, lineage và governance bằng: AWS Glue Catalog, Unity Catalog (ưu tiên) hoặc công cụ tương đương
● Thiết lập kiểm soát chất lượng dữ liệu thông qua: Unit test, validation framework, Delta expectations
● Đảm bảo tuân thủ các tiêu chuẩn ngân hàng:
- Phân quyền truy cập
- Audit và truy vết dữ liệu
- Bảo vệ dữ liệu nhạy cảm (PII)
Phối hợp nghiệp vụ:
● Phân tích yêu cầu nghiệp vụ và chuyển đổi thành giải pháp kỹ thuật phù hợp với chiến lược dữ liệu toàn ngân hàng.
● Làm việc chặt chẽ với Data Analyst, Data Scientist, các đơn vị kinh doanh, Risk/Compliance.
Vận hành & tối ưu hệ thống
● Giám sát hiệu năng pipeline, tối ưu chi phí và tài nguyên (Databricks cluster, compute).
● Xử lý sự cố production, đảm bảo tính ổn định hệ thống và SLA.
● Áp dụng DevOps & CI/CD (Azure DevOps, GitHub Actions, Bitbucket…).
Yêu cầu công việc
● Tốt nghiệp Đại học chuyên ngành CNTT, Hệ thống thông tin, Kỹ thuật hoặc tương đương.
● Thành thạo: AWS: S3, Glue, Lambda, IAM, Step Functions, Kinesis/MSK; Databricks: PySpark, Spark SQL, Delta Lake, Workflows; Python, SQL, Spark
● Ưu tiên kinh nghiệm trong lĩnh vực ngân hàng/tài chính (core banking, thanh toán, tín dụng, báo cáo NHNN).
● Có kinh nghiệm làm việc với hệ thống dữ liệu phân tán, quy mô lớn
● Tối thiểu 2–5+ năm kinh nghiệm ở vị trí Data Engineer.
● Hiểu biết vững về mô hình dữ liệu (relational, dimensional, domain- driven).
Quyền lợi được hưởng
● Tiếp xúc với các công nghệ mới, Tham gia các chương trình đào tạo/seminar nội bộ nâng cao năng lực.
● Chế độ: Thưởng lễ tết gồm các ngày :Tết dương, tết âm 30/4, 2/9, sinh nhật công ty, sinh nhật cá nhân, quà trung thu, 8/3, 20/10…BHXH, BHYT theo quy định của nhà nước
● Cân bằng cuộc sống và công việc với các hoạt động Teambuilding 1- 2 lần/ năm, hoạt động văn nghệ thể thao
● Được học hỏi và đào tạo học việc bài bản từ các leader có nhiều năm kinh nghiệm, Được định hướng phát triển thành Key Member.
● Training về kỹ năng mềm, kỹ năng quản lý dự án, quản lý chất lượng.
● Phụ cấp Onsite, ăn trưa, cung cấp máy tính, vé xe, các chế độ OT đầy đủ
● Làm việc trong môi trường ngân hàng/doanh nghiệp nước ngoài chuyên nghiệp, năng động, cởi mở.
● Mức lương: Thỏa thuận theo năng lực: upto 40 gross; package năm 13- 14 tháng lương
Nơi làm việc và thời gian làm việc
- Địa chỉ làm việc: Onsite 119 Trần Duy Hưng, Cầu Giấy, Hà Nội
- Thời gian làm việc: Thứ 2 – Thứ 6 và sáng thứ 7 (từ 9h- 18h)