포지션 상세
| 이런 경험을 할 수 있어요
• 클라우드 기반 데이터 웨어하우스 운영과 최적화를 경험할 수 있습니다.
• 고급 데이터 설계 및 시스템 안정성을 확보하는 기술적 깊이를 키울 수 있습니다.
• 분산 데이터 처리 플랫폼과 데이터 파이프라인 도입 및 운영 경험을 쌓을 수 있습니다.
• 협업을 통해 대규모 데이터 인프라를 관리하고 개선하는 오너십을 발휘할 수 있습니다.
| 이런 도구 or 기술을 사용하고 있어요
• 데이터 플랫폼: Segment, Optimove, n8n, PushMetrics, Pipedream
• 분석/시각화 도구: Tableau
• 협업/문서화: Jira, Confluence (프로젝트 관리 및 지식 공유)
• 데이터베이스: OLAP(Snowflake, BigQuery), OLTP(MySQL, SQL Server 등)
• 주요 문서 환경: Google Workspace
• Data storage/service (staging area, data lake, data warehouse, data marts, and operational data stores) 관리 및 개선
• Data storage/service 제품의 평가, 선택, 테스트, 도입 및 최적화
• Data storage/service 환경의 시스템 성능, 안정성, 가용성 및 회복 탄력성 확보
• Data storage/service 모니터링 및 복구 전략 수행
• Data wrangling/cleansing, ETL, ELT 프로세스를 포함한 Data Warehouse 활동을 설계, 개발, 테스트, 모니터링, 관리 및 검증
• 데이터 설계, 분석, 관리의 개념 및 절차의 개발과 정착
• 반복적인 데이터 파이프라인 작업을 자동화하고, AI 도구를 활용하여 개발 생산성 극대화
• 데이터 저장소 비용 및 성능 최적화를 위한 AI 기반 분석 및 자동 튜닝 적용
• CS/CE 학사 또는 이에 상응하는 배경 지식이 있는 분
• Data Warehouse 및 데이터 통합/공급 파이프라인 설계, 개발 또는 구축, 운영 실무 경험이 있는 분
• 복잡한 기술적 문제를 조사하고, 효과적인 권장 사항을 개발하며, 전문적인 방식으로 문제를 해결할 수 있는 분
• 클라우드 기반 데이터 웨어하우스(Redshift, Big Query, Snowflake) 운영 경험이 있는 분
• DM, BI 서비스/운영 및 data consumer의 요구사항을 접수하고 지원할 수 있는 분
• GitHub Copilot, ChatGPT 등 생성형 AI 도구를 활용하여 쿼리 작성, 디버깅, 문서화 등 업무 생산성을 높인 경험이 있는 분
• Python, SQL 작성 시 AI 도구를 활용해 코드 품질을 개선하고 리팩토링한 경험이 있는 분
• 영어 문서(이메일, 보고서)의 내용을 정리하여 보고할 수 있는 분
• 클라우드 기반 데이터 웨어하우스 운영과 최적화를 경험할 수 있습니다.
• 고급 데이터 설계 및 시스템 안정성을 확보하는 기술적 깊이를 키울 수 있습니다.
• 분산 데이터 처리 플랫폼과 데이터 파이프라인 도입 및 운영 경험을 쌓을 수 있습니다.
• 협업을 통해 대규모 데이터 인프라를 관리하고 개선하는 오너십을 발휘할 수 있습니다.
| 이런 도구 or 기술을 사용하고 있어요
• 데이터 플랫폼: Segment, Optimove, n8n, PushMetrics, Pipedream
• 분석/시각화 도구: Tableau
• 협업/문서화: Jira, Confluence (프로젝트 관리 및 지식 공유)
• 데이터베이스: OLAP(Snowflake, BigQuery), OLTP(MySQL, SQL Server 등)
• 주요 문서 환경: Google Workspace
주요업무
| 우리는 이런 일을 해요• Data storage/service (staging area, data lake, data warehouse, data marts, and operational data stores) 관리 및 개선
• Data storage/service 제품의 평가, 선택, 테스트, 도입 및 최적화
• Data storage/service 환경의 시스템 성능, 안정성, 가용성 및 회복 탄력성 확보
• Data storage/service 모니터링 및 복구 전략 수행
• Data wrangling/cleansing, ETL, ELT 프로세스를 포함한 Data Warehouse 활동을 설계, 개발, 테스트, 모니터링, 관리 및 검증
• 데이터 설계, 분석, 관리의 개념 및 절차의 개발과 정착
• 반복적인 데이터 파이프라인 작업을 자동화하고, AI 도구를 활용하여 개발 생산성 극대화
• 데이터 저장소 비용 및 성능 최적화를 위한 AI 기반 분석 및 자동 튜닝 적용
자격요건
| 이런 분과 함께 하고 싶어요• CS/CE 학사 또는 이에 상응하는 배경 지식이 있는 분
• Data Warehouse 및 데이터 통합/공급 파이프라인 설계, 개발 또는 구축, 운영 실무 경험이 있는 분
• 복잡한 기술적 문제를 조사하고, 효과적인 권장 사항을 개발하며, 전문적인 방식으로 문제를 해결할 수 있는 분
• 클라우드 기반 데이터 웨어하우스(Redshift, Big Query, Snowflake) 운영 경험이 있는 분
• DM, BI 서비스/운영 및 data consumer의 요구사항을 접수하고 지원할 수 있는 분
• GitHub Copilot, ChatGPT 등 생성형 AI 도구를 활용하여 쿼리 작성, 디버깅, 문서화 등 업무 생산성을 높인 경험이 있는 분
• Python, SQL 작성 시 AI 도구를 활용해 코드 품질을 개선하고 리팩토링한 경험이 있는 분
• 영어 문서(이메일, 보고서)의 내용을 정리하여 보고할 수 있는 분











