포지션 상세
[Liner]
라이너는 믿을 수 있는 AI로 정보 탐색을 혁신하는 AI 기술 스타트업입니다.
현재 전 세계 100개 이상 국가의 수백만 사용자에게 AI 서비스를 제공하고 있습니다.
지금까지 누적 438억 원 규모의 투자를 유치했으며 40명의 탁월한 팀원과 함께합니다.
라이너는 오랫동안 해결하지 못한 정보탐색의 문제를 풀고 있습니다.
라이너만의 강점으로 믿을 수 있는 AI 제품을 만들어 사람들이 더 적은 시간과 에너지로 많은 일을 할 수 있도록 돕는 서비스를 만들고 있습니다.
라이너팀은 정확하고 신뢰도 높은 고품질의 데이터를 제공하는 인프라와, 글로벌 1,000만 단위의 사용자 스케일 경험, 사용자 인터랙션 데이터 바탕의 개인화 플라이휠 구조를 갖고 있습니다.
초고속으로 성장하는 AI 시장에서 함께 글로벌 임팩트를 만들며 성장할 동료를 찾습니다!
• 산업기능요원(현역 및 보충역), 전문연구요원(전직 및 보충역) 지원 가능
아래 열거된 문제는 현재 머신러닝 조직에서 검색 에이전트의 성능 개선을 위해 풀어내고자 하는 문제들입니다.
열거된 영역 중 관심있는 영역이 있으시다면 따로 기재해주시면 감사하겠습니다.
[Search LLM]
• Llama 3, Qwen 2 등의 오픈 소스 모델 활용해 검색 태스크에 최적화 된 Post-training 수행
• Information Retrieval, Question Answering 등 Post-training을 위한 데이터셋 수집, 정의 및 Instruction Tuning에 알맞은 형태로 가공
• Liner 서비스 데이터를 Search LLM Post-training에 적합한 형태로 정의 및 가공
• Search LLM 성능 평가를 위한 평가 데이터셋 및 파이프라인 구축
• Pruning, Quantization, Speculative Decoding 등 실시간 추론을 위한 최적화 실험 모델링
• 관련 연구: INTERS - https://arxiv.org/abs/2401.06532
[HTML Parser]
• HTML으로부터 정형 데이터 형태의 마크다운을 생성해낼 수 있는 sLM 학습 및 모델링
• 추론 속도 최적화를 위한 여러 최적화 기법에 대한 탐색 및 적용 실험
• “Liner 검색 시스템 내 문서 수집” 및 “에이전트 내 문서 활용” 파이프라인과의 기술 연동
• 관련 연구: Jina ReaderLM
[Reranking]
• Liner 데이터를 활용해 신뢰할 수 있는 문서를 판별하기 위한 랭킹 및 필터링 알고리즘 고안
• Relevance, Authority, Trustfulness 등 문서를 판단하기 위한 주요 팩터에 대한 정의 및 모델링
• 주도적으로 Ranking 영역의 기술 동향 파악 및 전사 아젠다 설정
• 관련 연구: Liner Rerank, Cohere Rerank, BAAI BGE
[Intent]
• Liner 사용자들의 실 활용 사례에 맞는 Intent 택소노미 설계
• 최신 연구를 활용한 Query Understanding, Query Expansion, Intent Classification 모델링
• 검색 성능을 강화하기 위해 Query-level, User-level에서 활용할 수 있는 모든 정보에 대한 정의 및 관련 연구 방향성 설계
• Intent에 기반한 Vertical 강화를 위해 제품군과 협업하여 문제 설계 및 해결
이외에도 제품 조직과 함께 사용자 문제 정의부터 기술 기반 해결을 함께 해나가는 Applied ML, 직접 정의한 사용자 정책을 따르는 Safety / Moderation 레이어 모델링 등 여러 기술적 과제를 함께 풀어볼 수 있습니다.
혹은 소개된 문제는 아니지만, 지원자 분의 경험에 비추어 보았을 때 Liner에 필요하다고 판단하시는 문제에 대한 제시와 관련 경험을 소개해주셔도 좋습니다.
• 머신러닝 유관 경력 3년 이상의 경험을 가지신 분
• 머신러닝 프로젝트를 상용 서비스에 배포해보신 분
• 콘텐츠 관련 프로젝트 (e.g. 검색, 추천, 광고 등) 에 대한 문제를 스스로 정의하고 수행해보신 분
라이너는 믿을 수 있는 AI로 정보 탐색을 혁신하는 AI 기술 스타트업입니다.
현재 전 세계 100개 이상 국가의 수백만 사용자에게 AI 서비스를 제공하고 있습니다.
지금까지 누적 438억 원 규모의 투자를 유치했으며 40명의 탁월한 팀원과 함께합니다.
라이너는 오랫동안 해결하지 못한 정보탐색의 문제를 풀고 있습니다.
라이너만의 강점으로 믿을 수 있는 AI 제품을 만들어 사람들이 더 적은 시간과 에너지로 많은 일을 할 수 있도록 돕는 서비스를 만들고 있습니다.
라이너팀은 정확하고 신뢰도 높은 고품질의 데이터를 제공하는 인프라와, 글로벌 1,000만 단위의 사용자 스케일 경험, 사용자 인터랙션 데이터 바탕의 개인화 플라이휠 구조를 갖고 있습니다.
초고속으로 성장하는 AI 시장에서 함께 글로벌 임팩트를 만들며 성장할 동료를 찾습니다!
• 산업기능요원(현역 및 보충역), 전문연구요원(전직 및 보충역) 지원 가능
주요업무
Liner 머신러닝 엔지니어는 검색 에이전트를 구현해내기 위해 필요한 모든 ML 과제를 풀어내는 역할을 담당합니다.아래 열거된 문제는 현재 머신러닝 조직에서 검색 에이전트의 성능 개선을 위해 풀어내고자 하는 문제들입니다.
열거된 영역 중 관심있는 영역이 있으시다면 따로 기재해주시면 감사하겠습니다.
[Search LLM]
• Llama 3, Qwen 2 등의 오픈 소스 모델 활용해 검색 태스크에 최적화 된 Post-training 수행
• Information Retrieval, Question Answering 등 Post-training을 위한 데이터셋 수집, 정의 및 Instruction Tuning에 알맞은 형태로 가공
• Liner 서비스 데이터를 Search LLM Post-training에 적합한 형태로 정의 및 가공
• Search LLM 성능 평가를 위한 평가 데이터셋 및 파이프라인 구축
• Pruning, Quantization, Speculative Decoding 등 실시간 추론을 위한 최적화 실험 모델링
• 관련 연구: INTERS - https://arxiv.org/abs/2401.06532
[HTML Parser]
• HTML으로부터 정형 데이터 형태의 마크다운을 생성해낼 수 있는 sLM 학습 및 모델링
• 추론 속도 최적화를 위한 여러 최적화 기법에 대한 탐색 및 적용 실험
• “Liner 검색 시스템 내 문서 수집” 및 “에이전트 내 문서 활용” 파이프라인과의 기술 연동
• 관련 연구: Jina ReaderLM
[Reranking]
• Liner 데이터를 활용해 신뢰할 수 있는 문서를 판별하기 위한 랭킹 및 필터링 알고리즘 고안
• Relevance, Authority, Trustfulness 등 문서를 판단하기 위한 주요 팩터에 대한 정의 및 모델링
• 주도적으로 Ranking 영역의 기술 동향 파악 및 전사 아젠다 설정
• 관련 연구: Liner Rerank, Cohere Rerank, BAAI BGE
[Intent]
• Liner 사용자들의 실 활용 사례에 맞는 Intent 택소노미 설계
• 최신 연구를 활용한 Query Understanding, Query Expansion, Intent Classification 모델링
• 검색 성능을 강화하기 위해 Query-level, User-level에서 활용할 수 있는 모든 정보에 대한 정의 및 관련 연구 방향성 설계
• Intent에 기반한 Vertical 강화를 위해 제품군과 협업하여 문제 설계 및 해결
이외에도 제품 조직과 함께 사용자 문제 정의부터 기술 기반 해결을 함께 해나가는 Applied ML, 직접 정의한 사용자 정책을 따르는 Safety / Moderation 레이어 모델링 등 여러 기술적 과제를 함께 풀어볼 수 있습니다.
혹은 소개된 문제는 아니지만, 지원자 분의 경험에 비추어 보았을 때 Liner에 필요하다고 판단하시는 문제에 대한 제시와 관련 경험을 소개해주셔도 좋습니다.
자격요건
• 검색 에이전트와 이를 구현하기 위한 컴포넌트에 대한 이해가 깊고, 기술적으로 풀어내고 싶은 분• 머신러닝 유관 경력 3년 이상의 경험을 가지신 분
• 머신러닝 프로젝트를 상용 서비스에 배포해보신 분
• 콘텐츠 관련 프로젝트 (e.g. 검색, 추천, 광고 등) 에 대한 문제를 스스로 정의하고 수행해보신 분








