포지션 상세
티오더는 2019년 '오프라인 F&B 시장의 디지털화'라는 새로운 패러다임을 가져오기 위해 출범하였습니다. '테이블 오더'라는 아이템을 통하여 오프라인 매장의 주문과 운영 자동화 트렌드를 정착시켰고, 모든 단계에서 수집되는 빅데이터에 정교한 분석시스템을 더하여 더 가치있는 데이터로 정제하고 재구축합니다. 이런 데이터는 다시 고객들에게 스마트하고 정교한 솔루션으로 제공되어 F&B 오프라인 인프라의 선순환적인 생태계를 구축해나가고 있습니다.
15억 원의 자본금을 기반으로 설립된 티오더는, 2022년 기준 약 268억원의 매출액을 기록하였고 1,500억원의 기업가치를 인정받으며 100억원의 시리즈A 투자를 성공적으로 유치하였습니다. 또한, 22년 아기 유니콘 기업으로 선정된지 1년여만에 예비 유니콘 기업으로 성장하였고, "2023 대한민국 일자리 으뜸기업 일자리 창출 유공 대통령 표창"을 수상하는 등 기업의 내/외적 성장을 훌륭하게 이루어냈음을 증명하였습니다.
13만대 이상의 태블릿을 통한 새로운 광고 매체로서의 확장, F&B 산업을 벗어나 정보의 안내가 수반되는 다양한 Place로의 확장, 그리고 해외 오프라인 시장 진출 등 저희 티오더는 성장을 위한 노력을 멈추지 않을 것입니다.
[부서소개]
DevOps Chapter는 서비스의 안정성과 효율성을 극대화하기 위한 플랫폼 엔지니어링 조직입니다. 단순히 배포 자동화를 넘어 코드로 인프라를 관리하고 운영을 자동화하며, 비용 최적화와 지속적 관찰성을 통해 엔지니어링 생산성을 높이는 것을 목표로 합니다.
DevOps Chapter는 Infra unit과 Data unit으로 구성되어있으며, Data unit은 서비스 분석에 필요한 플랫폼 구축과 데이터 파이프라인 및 검증을 담당하고 있습니다.
- Medallion Architecture(Bronze, Silver, Gold) 기반 데이터를 활용한 이해관계자 요건별 데이터 마트 설계 및 구축
- 비즈니스 요구사항의 데이터 구조화 및 재사용 가능한 형태로의 제공
- QuickSight 등 BI 도구 연계 대시보드 구성 및 데이터 피드 설계
• 데이터 자동화 및 품질 관리
- 반복적인 데이터 요청의 Airflow 기반 배치 자동화 전환을 통한 운영 효율 확보
- ETL 프로세스 내 정합성 검증 로직 통합 및 신뢰할 수 있는 데이터 환경 제공
- 데이터 표준 적용, 처리 로직 관리, DQ 모니터링을 통한 데이터 품질 관리 체계 수립
• 이해관계자 커뮤니케이션
- 다양한 부서의 요구사항을 데이터 구조 관점에서 구체화하고 최적 방법 제안
- 단순 요청 이행을 넘어 데이터 활용 기준 수립 및 조직 내 데이터 리터러시 향상 기여
[기술스택]
•Cloud: AWS 환경(S3, Athena, EMR 등)에서 데이터 인프라 구축 및 운영
• Orchestration: Apache Airflow를 활용한 워크플로우 설계 및 관리 역량
• Processing: PySpark 등 분산 처리 프레임워크를 활용한 대용량 데이터 처리
• Lakehouse: Apache Iceberg 기반 Medallion Architecture 운영
• AWS 환경(S3, Athena, EMR)에서 데이터 파이프라인을 직접 구축하고 운영해 본 경험이 있으신 분
• Python/PySpark 기반으로 대용량 데이터를 처리해 본 경험이 있으신 분
• Medallion Architecture를 이해하고 Bronze/Silver/Gold 레이어에 맞는 데이터 모델링을 해오신 분
• Airflow 기반 워크플로우를 설계하고 배치 작업의 효율화를 경험해 보신 분
• 단순 요청 이행에 그치지 않고, 요구사항의 맥락을 파악해 데이터 구조와 활용 기준을 스스로 정의하고 제안할 수 있으신 분
• 여러 이해관계자의 요청을 데이터 요건으로 구체화하고 정의할 수 있는 커뮤니케이션 역량을 갖추신 분
• 데이터 표준 적용, 처리 로직 관리, 정합성 검증, DQ 모니터링을 통해 도메인 배경 없이도 누구나 신뢰하고 활용할 수 있는 데이터 환경을 만들어 나갈 수 있으신 분
15억 원의 자본금을 기반으로 설립된 티오더는, 2022년 기준 약 268억원의 매출액을 기록하였고 1,500억원의 기업가치를 인정받으며 100억원의 시리즈A 투자를 성공적으로 유치하였습니다. 또한, 22년 아기 유니콘 기업으로 선정된지 1년여만에 예비 유니콘 기업으로 성장하였고, "2023 대한민국 일자리 으뜸기업 일자리 창출 유공 대통령 표창"을 수상하는 등 기업의 내/외적 성장을 훌륭하게 이루어냈음을 증명하였습니다.
13만대 이상의 태블릿을 통한 새로운 광고 매체로서의 확장, F&B 산업을 벗어나 정보의 안내가 수반되는 다양한 Place로의 확장, 그리고 해외 오프라인 시장 진출 등 저희 티오더는 성장을 위한 노력을 멈추지 않을 것입니다.
[부서소개]
DevOps Chapter는 서비스의 안정성과 효율성을 극대화하기 위한 플랫폼 엔지니어링 조직입니다. 단순히 배포 자동화를 넘어 코드로 인프라를 관리하고 운영을 자동화하며, 비용 최적화와 지속적 관찰성을 통해 엔지니어링 생산성을 높이는 것을 목표로 합니다.
DevOps Chapter는 Infra unit과 Data unit으로 구성되어있으며, Data unit은 서비스 분석에 필요한 플랫폼 구축과 데이터 파이프라인 및 검증을 담당하고 있습니다.
주요업무
• 데이터 마트 설계 및 운영- Medallion Architecture(Bronze, Silver, Gold) 기반 데이터를 활용한 이해관계자 요건별 데이터 마트 설계 및 구축
- 비즈니스 요구사항의 데이터 구조화 및 재사용 가능한 형태로의 제공
- QuickSight 등 BI 도구 연계 대시보드 구성 및 데이터 피드 설계
• 데이터 자동화 및 품질 관리
- 반복적인 데이터 요청의 Airflow 기반 배치 자동화 전환을 통한 운영 효율 확보
- ETL 프로세스 내 정합성 검증 로직 통합 및 신뢰할 수 있는 데이터 환경 제공
- 데이터 표준 적용, 처리 로직 관리, DQ 모니터링을 통한 데이터 품질 관리 체계 수립
• 이해관계자 커뮤니케이션
- 다양한 부서의 요구사항을 데이터 구조 관점에서 구체화하고 최적 방법 제안
- 단순 요청 이행을 넘어 데이터 활용 기준 수립 및 조직 내 데이터 리터러시 향상 기여
[기술스택]
•Cloud: AWS 환경(S3, Athena, EMR 등)에서 데이터 인프라 구축 및 운영
• Orchestration: Apache Airflow를 활용한 워크플로우 설계 및 관리 역량
• Processing: PySpark 등 분산 처리 프레임워크를 활용한 대용량 데이터 처리
• Lakehouse: Apache Iceberg 기반 Medallion Architecture 운영
자격요건
• 3년 이상의 데이터 엔지니어링 실무 경험이 있으신 분• AWS 환경(S3, Athena, EMR)에서 데이터 파이프라인을 직접 구축하고 운영해 본 경험이 있으신 분
• Python/PySpark 기반으로 대용량 데이터를 처리해 본 경험이 있으신 분
• Medallion Architecture를 이해하고 Bronze/Silver/Gold 레이어에 맞는 데이터 모델링을 해오신 분
• Airflow 기반 워크플로우를 설계하고 배치 작업의 효율화를 경험해 보신 분
• 단순 요청 이행에 그치지 않고, 요구사항의 맥락을 파악해 데이터 구조와 활용 기준을 스스로 정의하고 제안할 수 있으신 분
• 여러 이해관계자의 요청을 데이터 요건으로 구체화하고 정의할 수 있는 커뮤니케이션 역량을 갖추신 분
• 데이터 표준 적용, 처리 로직 관리, 정합성 검증, DQ 모니터링을 통해 도메인 배경 없이도 누구나 신뢰하고 활용할 수 있는 데이터 환경을 만들어 나갈 수 있으신 분



