포지션 상세
티오더는 2019년 '오프라인 F&B 시장의 디지털화'라는 새로운 패러다임을 가져오기 위해 출범하였습니다. '테이블 오더'라는 아이템을 통하여 오프라인 매장의 주문과 운영 자동화 트렌드를 정착시켰고, 모든 단계에서 수집되는 빅데이터에 정교한 분석시스템을 더하여 더 가치있는 데이터로 정제하고 재구축합니다. 이런 데이터는 다시 고객들에게 스마트하고 정교한 솔루션으로 제공되어 F&B 오프라인 인프라의 선순환적인 생태계를 구축해나가고 있습니다.
15억 원의 자본금을 기반으로 설립된 티오더는, 2022년 기준 약 268억원의 매출액을 기록하였고 1,500억원의 기업가치를 인정받으며 100억원의 시리즈A 투자를 성공적으로 유치하였습니다. 또한, 22년 아기 유니콘 기업으로 선정된지 1년여만에 예비 유니콘 기업으로 성장하였고, "2023 대한민국 일자리 으뜸기업 일자리 창출 유공 대통령 표창"을 수상하는 등 기업의 내/외적 성장을 훌륭하게 이루어냈음을 증명하였습니다.
13만대 이상의 태블릿을 통한 새로운 광고 매체로서의 확장, F&B 산업을 벗어나 정보의 안내가 수반되는 다양한 Place로의 확장, 그리고 해외 오프라인 시장 진출 등 저희 티오더는 성장을 위한 노력을 멈추지 않을 것입니다.
[부서소개]
DevOps팀은 서비스의 안정성과 효율성을 극대화하기 위한 플랫폼 엔지니어링 조직입니다. 단순히 배포 자동화를 넘어 코드로 인프라를 관리하고 운영을 자동화하며, 비용 최적화와 지속적 관찰성을 통해 엔지니어링 생산성을 높이는 것을 목표로 합니다.
DevOps팀은 Infra unit과 Data unit으로 구성되어있으며, Data unit은 서비스 분석에 필요한 플랫폼 구축과 데이터 파이프라인 및 검증을 담당하고 있습니다.
- 대규모 데이터(사용자 로그, 광고, 주문/결제 등) 처리를 위한 실시간/배치 파이프라인 개발 및 최적화
- 추천 시스템 및 AI 모델 서빙에 필요한 데이터 피드 설계
• Data Lakehouse 아키텍처 고도화
- Apache Iceberg 기반 Lakehouse 운영으로 스키마 변경 및 재처리의 유연성 확보
- Medallion Architecture(Bronze, Silver, Gold) 도입을 통한 SOT(Single Source of Truth) 확립
• 데이터 품질(DQ) 및 거버넌스 관리
- ETL 프로세스 내 DQ 검증 로직 통합 및 실시간 이상 탐지/모니터링 시스템 구축
- 데이터 정합성 검증 및 표준 관리를 통해 신뢰할 수 있는 데이터 환경 제공
• 인프라 및 성능 최적화
- AWS EMR/Spark 기반의 분산 처리 환경 최적화 및 OOM 등 성능 병목 해결
- 데이터 수집 방식 개선을 통한 클라우드 운영 비용 절감 및 시스템 안정성 강화
• 데이터 모델링
- 다양한 요구사항을 처리 할 수 있는 구조의 데이터 디멘전 모델 설계
[기술스택]
• Cloud: AWS 환경(S3, Athena, Glue, EMR 등)에서 데이터 인프라 구축 및 운영
• Orchestration: Apache Airflow를 활용한 워크플로우 설계 및 관리 역량
• Platform: Docker/Kubernetes 기반의 컨테이너 환경 운영
• Processing: Spark 등 분산 처리 프레임워크를 활용한 대용량 데이터 처리
• AWS 환경(S3, Athena, Glue, EMR)에서 데이터 인프라를 직접 구축하고 운영해 본 경험이 있으신 분
• Kubernetes(K8s) 및 Docker 기반 환경에서 컨테이너화된 서비스를 운영, 관리해 본 경험이 있으신 분
• 대용량 데이터 처리를 위해 분산 처리 환경(Spark) 등을 사용하고 이를 해결해 본 경험이 있으신 분
• Data Medallion Architecture를 이해하고 데이터 모델링을 해오신 분
• Data Warehouse, Mart에 대한 이해와 Airflow 기반 workflow를 활용한 데이터 워크플로우 설계 및 운영에 능숙하신 분
• 단순 요청을 처리하는 것이 아닌 명확한 데이터 구조와 효율적인 데이터 활용 관점에서 기준을 제시할 수 있으신 분
• 다양한 이해관계자와 소통하여 데이터 요구사항을 구체화하고 정리하는 역량이 있으신 분
• 표준 준수, 데이터 처리 로직 반영 및 관리, 데이터 정합성 검증, DQ 모니터링 등을 통해 도메인 지식 없이도 누구나 쉽게 이해하고 신뢰할 수 있는 데이터를 제공할 수 있으신 분
15억 원의 자본금을 기반으로 설립된 티오더는, 2022년 기준 약 268억원의 매출액을 기록하였고 1,500억원의 기업가치를 인정받으며 100억원의 시리즈A 투자를 성공적으로 유치하였습니다. 또한, 22년 아기 유니콘 기업으로 선정된지 1년여만에 예비 유니콘 기업으로 성장하였고, "2023 대한민국 일자리 으뜸기업 일자리 창출 유공 대통령 표창"을 수상하는 등 기업의 내/외적 성장을 훌륭하게 이루어냈음을 증명하였습니다.
13만대 이상의 태블릿을 통한 새로운 광고 매체로서의 확장, F&B 산업을 벗어나 정보의 안내가 수반되는 다양한 Place로의 확장, 그리고 해외 오프라인 시장 진출 등 저희 티오더는 성장을 위한 노력을 멈추지 않을 것입니다.
[부서소개]
DevOps팀은 서비스의 안정성과 효율성을 극대화하기 위한 플랫폼 엔지니어링 조직입니다. 단순히 배포 자동화를 넘어 코드로 인프라를 관리하고 운영을 자동화하며, 비용 최적화와 지속적 관찰성을 통해 엔지니어링 생산성을 높이는 것을 목표로 합니다.
DevOps팀은 Infra unit과 Data unit으로 구성되어있으며, Data unit은 서비스 분석에 필요한 플랫폼 구축과 데이터 파이프라인 및 검증을 담당하고 있습니다.
주요업무
• 데이터 파이프라인 설계 및 운영- 대규모 데이터(사용자 로그, 광고, 주문/결제 등) 처리를 위한 실시간/배치 파이프라인 개발 및 최적화
- 추천 시스템 및 AI 모델 서빙에 필요한 데이터 피드 설계
• Data Lakehouse 아키텍처 고도화
- Apache Iceberg 기반 Lakehouse 운영으로 스키마 변경 및 재처리의 유연성 확보
- Medallion Architecture(Bronze, Silver, Gold) 도입을 통한 SOT(Single Source of Truth) 확립
• 데이터 품질(DQ) 및 거버넌스 관리
- ETL 프로세스 내 DQ 검증 로직 통합 및 실시간 이상 탐지/모니터링 시스템 구축
- 데이터 정합성 검증 및 표준 관리를 통해 신뢰할 수 있는 데이터 환경 제공
• 인프라 및 성능 최적화
- AWS EMR/Spark 기반의 분산 처리 환경 최적화 및 OOM 등 성능 병목 해결
- 데이터 수집 방식 개선을 통한 클라우드 운영 비용 절감 및 시스템 안정성 강화
• 데이터 모델링
- 다양한 요구사항을 처리 할 수 있는 구조의 데이터 디멘전 모델 설계
[기술스택]
• Cloud: AWS 환경(S3, Athena, Glue, EMR 등)에서 데이터 인프라 구축 및 운영
• Orchestration: Apache Airflow를 활용한 워크플로우 설계 및 관리 역량
• Platform: Docker/Kubernetes 기반의 컨테이너 환경 운영
• Processing: Spark 등 분산 처리 프레임워크를 활용한 대용량 데이터 처리
자격요건
• 5년 이상의 데이터 엔지니어링 실무 경험이 있으신 분• AWS 환경(S3, Athena, Glue, EMR)에서 데이터 인프라를 직접 구축하고 운영해 본 경험이 있으신 분
• Kubernetes(K8s) 및 Docker 기반 환경에서 컨테이너화된 서비스를 운영, 관리해 본 경험이 있으신 분
• 대용량 데이터 처리를 위해 분산 처리 환경(Spark) 등을 사용하고 이를 해결해 본 경험이 있으신 분
• Data Medallion Architecture를 이해하고 데이터 모델링을 해오신 분
• Data Warehouse, Mart에 대한 이해와 Airflow 기반 workflow를 활용한 데이터 워크플로우 설계 및 운영에 능숙하신 분
• 단순 요청을 처리하는 것이 아닌 명확한 데이터 구조와 효율적인 데이터 활용 관점에서 기준을 제시할 수 있으신 분
• 다양한 이해관계자와 소통하여 데이터 요구사항을 구체화하고 정리하는 역량이 있으신 분
• 표준 준수, 데이터 처리 로직 반영 및 관리, 데이터 정합성 검증, DQ 모니터링 등을 통해 도메인 지식 없이도 누구나 쉽게 이해하고 신뢰할 수 있는 데이터를 제공할 수 있으신 분



