포지션 상세
About Babitalk]
바비톡은 누적 다운로드 900만에 이르는 국내 대표 메디컬 뷰티 플랫폼으로,
정보 비대칭이 심한 성형/뷰티 의료 시장에서 신뢰할 수 있는 정보와 투명한 후기 제공을 통해
서비스 이용자가 올바른 선택을 할 수 있도록 돕고 있습니다.
2024년 기준 연매출 300억 원, 영업이익 44억 원을 기록하며 안정적인 성장을 이어오고 있으며,
현재 3,300여 개 병원·의사 네트워크를 기반으로 국내 시장을 넘어 글로벌 확장을 추진하고 있습니다.
나아가 우리는 단순한 정보 플랫폼을 넘어,
우수한 AI 기술력을 바탕으로 사용자 별 개인화 정보를 제공하는
맞춤형 뷰티 파트너로 진화하고 있습니다.
이 변화의 중심에서 함께 성장할 동료를 기다립니다.
•Data Lakehouse 전략 수립: Apache Iceberg 기반 레이크하우스 환경의 성능 최적화, 스토리지 전략 수립 및 관리 체계 구축을 합니다.
•실시간 처리 인프라 확장: AWS Kinesis을 활용한 실시간 데이터 스트리밍 인프라 설계 및 장애 대응 체계 고도화를 합니다.
•데이터 거버넌스 및 품질 관리: DBT 등을 활용하여 전사 데이터 품질(Data Quality) 모니터링 체계 구축, 데이터 카탈로그 관리 및 보안 정책 수립을 합니다.
•플랫폼 엔지니어링: EKS 기반 Airflow, CI/CD(ArgoCD) 환경의 확장성 확보 및 인프라 운영 효율화 리딩합니다.
•기술 리딩 및 멘토링: 주니어 엔지니어의 코드 리뷰, 기술적 문제 해결 지원 및 팀 내 엔지니어링 문화 선도를 합니다.
[업무 환경]
•Apache Iceberg 기반 Data Lakehouse 환경을 활용하여 데이터 관리 및 분석 수행 합니다.
•Kubernetes(EKS) 기반 Apache Airflow 환경에서 데이터 파이프라인 운영 합니다.
•AWS EMR Serverless 및 Scala Spark를 활용한 대규모 데이터 처리 환경을 구축하고 운영 합니다.
•AWS Kinesis 기반 실시간 데이터 스트리밍 및 처리 인프라를 설계 및 고도화 합니다.
•GitHub Actions · ArgoCD 기반 CI/CD 자동화 파이프라인 운영 합니다.
•Scala, Python, SQL에 능숙하며, 객체 지향 및 함수형 프로그래밍에 대한 깊은 이해가 있으신 분이 필요해요.
•Spark(Scala)를 이용한 대규모 분산 데이터 처리 및 성능 튜닝 경험이 풍부하신 분이 필요해요.
•Apache Iceberg 등 최신 테이블 포맷을 활용한 데이터 레이크하우스 구축 및 운영 경험이 있으신 분이 필요해요.
•Kubernetes(EKS) 환경에서 데이터 애플리케이션을 배포하고 운영해 본 경험이 있으신 분이 필요해요.
•복잡한 비즈니스 요구사항을 데이터 모델링으로 풀어낼 수 있는 논리적 사고 능력을 갖춘 분이 필요해요.
•데이터 분석가/사이언티스트와 원활하게 소통하며 플랫폼의 방향성을 제시할 수 있는 분이 필요해요.
바비톡은 누적 다운로드 900만에 이르는 국내 대표 메디컬 뷰티 플랫폼으로,
정보 비대칭이 심한 성형/뷰티 의료 시장에서 신뢰할 수 있는 정보와 투명한 후기 제공을 통해
서비스 이용자가 올바른 선택을 할 수 있도록 돕고 있습니다.
2024년 기준 연매출 300억 원, 영업이익 44억 원을 기록하며 안정적인 성장을 이어오고 있으며,
현재 3,300여 개 병원·의사 네트워크를 기반으로 국내 시장을 넘어 글로벌 확장을 추진하고 있습니다.
나아가 우리는 단순한 정보 플랫폼을 넘어,
우수한 AI 기술력을 바탕으로 사용자 별 개인화 정보를 제공하는
맞춤형 뷰티 파트너로 진화하고 있습니다.
이 변화의 중심에서 함께 성장할 동료를 기다립니다.
주요업무
•데이터 아키텍처 설계 및 고도화: AWS 기반 대용량 데이터 수집/처리/저장/분석 파이프라인의 전체 아키텍처 설계 및 리딩을 합니다.•Data Lakehouse 전략 수립: Apache Iceberg 기반 레이크하우스 환경의 성능 최적화, 스토리지 전략 수립 및 관리 체계 구축을 합니다.
•실시간 처리 인프라 확장: AWS Kinesis을 활용한 실시간 데이터 스트리밍 인프라 설계 및 장애 대응 체계 고도화를 합니다.
•데이터 거버넌스 및 품질 관리: DBT 등을 활용하여 전사 데이터 품질(Data Quality) 모니터링 체계 구축, 데이터 카탈로그 관리 및 보안 정책 수립을 합니다.
•플랫폼 엔지니어링: EKS 기반 Airflow, CI/CD(ArgoCD) 환경의 확장성 확보 및 인프라 운영 효율화 리딩합니다.
•기술 리딩 및 멘토링: 주니어 엔지니어의 코드 리뷰, 기술적 문제 해결 지원 및 팀 내 엔지니어링 문화 선도를 합니다.
[업무 환경]
•Apache Iceberg 기반 Data Lakehouse 환경을 활용하여 데이터 관리 및 분석 수행 합니다.
•Kubernetes(EKS) 기반 Apache Airflow 환경에서 데이터 파이프라인 운영 합니다.
•AWS EMR Serverless 및 Scala Spark를 활용한 대규모 데이터 처리 환경을 구축하고 운영 합니다.
•AWS Kinesis 기반 실시간 데이터 스트리밍 및 처리 인프라를 설계 및 고도화 합니다.
•GitHub Actions · ArgoCD 기반 CI/CD 자동화 파이프라인 운영 합니다.
자격요건
•7년 이상의 데이터 엔지니어링 또는 그에 준하는 백엔드 개발 경험을 보유하신 분이 필요해요.•Scala, Python, SQL에 능숙하며, 객체 지향 및 함수형 프로그래밍에 대한 깊은 이해가 있으신 분이 필요해요.
•Spark(Scala)를 이용한 대규모 분산 데이터 처리 및 성능 튜닝 경험이 풍부하신 분이 필요해요.
•Apache Iceberg 등 최신 테이블 포맷을 활용한 데이터 레이크하우스 구축 및 운영 경험이 있으신 분이 필요해요.
•Kubernetes(EKS) 환경에서 데이터 애플리케이션을 배포하고 운영해 본 경험이 있으신 분이 필요해요.
•복잡한 비즈니스 요구사항을 데이터 모델링으로 풀어낼 수 있는 논리적 사고 능력을 갖춘 분이 필요해요.
•데이터 분석가/사이언티스트와 원활하게 소통하며 플랫폼의 방향성을 제시할 수 있는 분이 필요해요.



