포지션 상세
We are looking for the best
UMOS ONE은 42dot의 자회사로, 스스로 운영되는 도시교통 운영체제(Urban Mobility Operating System, UMOS)를 기반한 모빌리티 서비스에서의 실제 플릿 운영과 자율 주행 확장까지, 전 과정을 아우르는 통합 플랫폼을 개발하고 있습니다.
UMOS ONE은 모빌리티 서비스 ‘TAP!’, 차량 관제·운영 시스템 ‘Pleos Fleet’, AI 기반 운송 관리 시스템 ‘Capora’ 등 다양한 솔루션을 통해 SDV (software-defined vehicle) 기반의 기술을 상용화하며, 미래 모빌리티 서비스의 중심을 이끌어가고자 합니다.
빠르게 변화하는 시장 속에서 복잡한 문제를 날카롭게 분석해 정확한 해법을 실행력 있게 구현해 나갈 동료를 찾고 있습니다. 혼자보다는 함께 더 멀리 가는 팀, 단순한 협업을 넘어 서로의 성장을 진심으로 응원하는 문화 속에서 의미 있는 도전을 이어가고 싶다면, UMOS ONE에서 그 여정을 함께하세요.
• UMOS 플랫폼에서 발생하는 대용량 Mobility 및 Logistics 데이터를 수집, 정제, 변환하기 위한 실시간 및 배치 파이프라인 (ETL/ELT) 설계 및 구현
• Apache Airflow를 활용하여 복잡한 데이터 파이프라인 워크플로우를 자동화 및 관리
• 고성능 분석 및 시계열 데이터 처리를 위해 ClickHouse 등 특화된 데이터베이스 환경 구축 및 운영
• 데이터 정합성을 확보하고 데이터 품질 이슈를 해결하기 위한 자동화된 모니터링 시스템 구축
• 데이터 웨어하우징 및 플랫폼 구축 (Databricks Lakehouse)
• Databricks Lakehouse Platform을 주요 데이터 웨어하우스(Data Warehousing) 목적으로 설계, 구축 및 운영
• Databricks 워크스페이스, 컴퓨팅 자원 (Cluster), Unity Catalog 등을 관리하고 최적화하여 플랫폼 안정성 및 효율성 극대화
• Databricks 환경 내에서 데이터 거버넌스 및 보안 체계 수립 및 이행
• 데이터 서비스 및 분석 환경 제공
• 서비스 및 분석 팀이 신속하게 데이터를 탐색하고 활용할 수 있도록 Apache Superset 등 시각화 도구를 연동하고 운영 지원
• Data & AI Engineer 팀이 지식 그래프(Knowledge Graph) 및 AI 모델을 개발할 수 있도록Databricks 환경에서 필요한 Feature Store를 제공
• Apache Airflow를 이용한 데이터 워크플로우 오케스트레이션 경험
• Python 또는 Scala를 활용한 대규모 데이터 처리 개발 능력
• 클라우드 환경 (AWS, GCP, Azure 중 1개 이상) 기반의 Cloud Native 데이터 인프라 구축 경험
UMOS ONE은 42dot의 자회사로, 스스로 운영되는 도시교통 운영체제(Urban Mobility Operating System, UMOS)를 기반한 모빌리티 서비스에서의 실제 플릿 운영과 자율 주행 확장까지, 전 과정을 아우르는 통합 플랫폼을 개발하고 있습니다.
UMOS ONE은 모빌리티 서비스 ‘TAP!’, 차량 관제·운영 시스템 ‘Pleos Fleet’, AI 기반 운송 관리 시스템 ‘Capora’ 등 다양한 솔루션을 통해 SDV (software-defined vehicle) 기반의 기술을 상용화하며, 미래 모빌리티 서비스의 중심을 이끌어가고자 합니다.
빠르게 변화하는 시장 속에서 복잡한 문제를 날카롭게 분석해 정확한 해법을 실행력 있게 구현해 나갈 동료를 찾고 있습니다. 혼자보다는 함께 더 멀리 가는 팀, 단순한 협업을 넘어 서로의 성장을 진심으로 응원하는 문화 속에서 의미 있는 도전을 이어가고 싶다면, UMOS ONE에서 그 여정을 함께하세요.
주요업무
• 대규모 데이터 파이프라인 설계 및 운영• UMOS 플랫폼에서 발생하는 대용량 Mobility 및 Logistics 데이터를 수집, 정제, 변환하기 위한 실시간 및 배치 파이프라인 (ETL/ELT) 설계 및 구현
• Apache Airflow를 활용하여 복잡한 데이터 파이프라인 워크플로우를 자동화 및 관리
• 고성능 분석 및 시계열 데이터 처리를 위해 ClickHouse 등 특화된 데이터베이스 환경 구축 및 운영
• 데이터 정합성을 확보하고 데이터 품질 이슈를 해결하기 위한 자동화된 모니터링 시스템 구축
• 데이터 웨어하우징 및 플랫폼 구축 (Databricks Lakehouse)
• Databricks Lakehouse Platform을 주요 데이터 웨어하우스(Data Warehousing) 목적으로 설계, 구축 및 운영
• Databricks 워크스페이스, 컴퓨팅 자원 (Cluster), Unity Catalog 등을 관리하고 최적화하여 플랫폼 안정성 및 효율성 극대화
• Databricks 환경 내에서 데이터 거버넌스 및 보안 체계 수립 및 이행
• 데이터 서비스 및 분석 환경 제공
• 서비스 및 분석 팀이 신속하게 데이터를 탐색하고 활용할 수 있도록 Apache Superset 등 시각화 도구를 연동하고 운영 지원
• Data & AI Engineer 팀이 지식 그래프(Knowledge Graph) 및 AI 모델을 개발할 수 있도록Databricks 환경에서 필요한 Feature Store를 제공
자격요건
• 8년 이상의 데이터 플랫폼 구축 및 파이프라인 개발 경력• Apache Airflow를 이용한 데이터 워크플로우 오케스트레이션 경험
• Python 또는 Scala를 활용한 대규모 데이터 처리 개발 능력
• 클라우드 환경 (AWS, GCP, Azure 중 1개 이상) 기반의 Cloud Native 데이터 인프라 구축 경험

