포지션 상세
"대한민국 No.1 리걸테크 스타트업, 로앤컴퍼니"
로앤컴퍼니는 'IT 기술을 활용한 법률 서비스의 대중화와 선진화'를 목표로 하는 리걸테크 스타트업입니다.
로앤컴퍼니의 대표 서비스는 다음과 같습니다:
• 국내 1위 법률서비스 플랫폼 '로톡'
• AI 기반의 국내 최다 판례를 보유한 법률 정보 검색 서비스 '빅케이스'
• 국내 최초의 법률가를 위한 생성형 AI 기반의 법률비서 서비스 '슈퍼로이어'
• No.1 로펌 업무관리 솔루션 ‘로탑’
우리는 법률 서비스 시장의 정보 비대칭 해소를 통해 '누구나 법 앞에 평등한 세상'을 꿈꾸며, 법률 전문가와 소비자를 위한 다양한 기술 연구와 법률 시장의 IT 기술 고도화에 협력하고 있습니다.
리걸테크의 새로운 역사를 만들고 싶다면 지금 바로 합류하세요!
로앤컴퍼니 데이터 엔지니어는 AI팀에 소속되어 비즈니스에 필요한 데이터가 안정적으로 흘러가는 환경을 만들고 운영하는 역할을 담당합니다.
서비스와 관련된 플랫폼에서 발생하는 다양한 데이터를 수집하고 가공하여, 의사결정에 필요한 인사이트를 제공하는 데이터 파이프라인을 구축합니다. Python과 Airflow를 기반으로 ETL/ELT 워크플로우를 개발하며, GCP와 AWS 클라우드 환경에서 데이터 인프라를 관리합니다. 단순히 데이터를 옮기는 것을 넘어, 데이터 품질을 지속적으로 모니터링하고 파이프라인의 안정성을 개선하는 작업을 수행합니다.
[주요업무]
함께 풀어나갈 과제들입니다.
1. 데이터 수집 파이프라인 구축 및 안정화
비즈니스 성장에 필요한 다양한 데이터 소스를 발굴하고, 안정적으로 수집하는 파이프라인을 구축합니다. API 연동, 웹 데이터 수집, 내부 DB 연동 등 다양한 방식으로 데이터를 확보하며, 수집 현황을 체계적으로 관리하고 모니터링합니다.
2. 데이터 품질 관리 및 모니터링 시스템 개선
수집된 데이터의 정확성과 일관성을 보장하기 위해 Great Expectations를 활용해서 품질 검증 로직을 구현하고, 문제 발생 시 빠르게 대응할 수 있는 모니터링 체계를 구축합니다.
3. 데이터 웨어하우스 운영 및 최적화
GCP/AWS 기반의 데이터 웨어하우스로 데이터를 적재하고, 분석팀과 비즈니스팀이 효율적으로 활용할 수 있도록 데이터 모델을 설계합니다. 쿼리 성능 개선, 비용 최적화 등의 작업도 함께 수행합니다.
4. 데이터 파이프라인 자동화 및 효율화
반복적인 데이터 처리 작업을 Airflow를 통해 자동화하고, 워크플로우를 효율적으로 관리합니다. 파이프라인 실행 이력을 추적하고, 재실행 및 에러 핸들링 로직을 개선하여 운영 부담을 줄입니다.
• 다양한 소스(API, 웹 크롤링, DB 등)로부터 데이터를 수집한 경험
• 클라우드 환경(GCP, AWS 등)에서 데이터 인프라를 구축하고 운영한 경험
• Airflow, Prefect 등 워크플로우 스케줄러를 활용하여 배치 데이터 파이프라인을 구축한 경험
• Python, SQL을 활용한 데이터 처리에 능숙
• Superset, Metabase 등을 활용한 대시보드 구성 경험
로앤컴퍼니는 'IT 기술을 활용한 법률 서비스의 대중화와 선진화'를 목표로 하는 리걸테크 스타트업입니다.
로앤컴퍼니의 대표 서비스는 다음과 같습니다:
• 국내 1위 법률서비스 플랫폼 '로톡'
• AI 기반의 국내 최다 판례를 보유한 법률 정보 검색 서비스 '빅케이스'
• 국내 최초의 법률가를 위한 생성형 AI 기반의 법률비서 서비스 '슈퍼로이어'
• No.1 로펌 업무관리 솔루션 ‘로탑’
우리는 법률 서비스 시장의 정보 비대칭 해소를 통해 '누구나 법 앞에 평등한 세상'을 꿈꾸며, 법률 전문가와 소비자를 위한 다양한 기술 연구와 법률 시장의 IT 기술 고도화에 협력하고 있습니다.
리걸테크의 새로운 역사를 만들고 싶다면 지금 바로 합류하세요!
주요업무
[직무소개]로앤컴퍼니 데이터 엔지니어는 AI팀에 소속되어 비즈니스에 필요한 데이터가 안정적으로 흘러가는 환경을 만들고 운영하는 역할을 담당합니다.
서비스와 관련된 플랫폼에서 발생하는 다양한 데이터를 수집하고 가공하여, 의사결정에 필요한 인사이트를 제공하는 데이터 파이프라인을 구축합니다. Python과 Airflow를 기반으로 ETL/ELT 워크플로우를 개발하며, GCP와 AWS 클라우드 환경에서 데이터 인프라를 관리합니다. 단순히 데이터를 옮기는 것을 넘어, 데이터 품질을 지속적으로 모니터링하고 파이프라인의 안정성을 개선하는 작업을 수행합니다.
[주요업무]
함께 풀어나갈 과제들입니다.
1. 데이터 수집 파이프라인 구축 및 안정화
비즈니스 성장에 필요한 다양한 데이터 소스를 발굴하고, 안정적으로 수집하는 파이프라인을 구축합니다. API 연동, 웹 데이터 수집, 내부 DB 연동 등 다양한 방식으로 데이터를 확보하며, 수집 현황을 체계적으로 관리하고 모니터링합니다.
2. 데이터 품질 관리 및 모니터링 시스템 개선
수집된 데이터의 정확성과 일관성을 보장하기 위해 Great Expectations를 활용해서 품질 검증 로직을 구현하고, 문제 발생 시 빠르게 대응할 수 있는 모니터링 체계를 구축합니다.
3. 데이터 웨어하우스 운영 및 최적화
GCP/AWS 기반의 데이터 웨어하우스로 데이터를 적재하고, 분석팀과 비즈니스팀이 효율적으로 활용할 수 있도록 데이터 모델을 설계합니다. 쿼리 성능 개선, 비용 최적화 등의 작업도 함께 수행합니다.
4. 데이터 파이프라인 자동화 및 효율화
반복적인 데이터 처리 작업을 Airflow를 통해 자동화하고, 워크플로우를 효율적으로 관리합니다. 파이프라인 실행 이력을 추적하고, 재실행 및 에러 핸들링 로직을 개선하여 운영 부담을 줄입니다.
자격요건
• 데이터 엔지니어링 또는 백엔드 개발 경력 2년 이상의 경험• 다양한 소스(API, 웹 크롤링, DB 등)로부터 데이터를 수집한 경험
• 클라우드 환경(GCP, AWS 등)에서 데이터 인프라를 구축하고 운영한 경험
• Airflow, Prefect 등 워크플로우 스케줄러를 활용하여 배치 데이터 파이프라인을 구축한 경험
• Python, SQL을 활용한 데이터 처리에 능숙
• Superset, Metabase 등을 활용한 대시보드 구성 경험










