포지션 상세
AI가 모든 영역에 깊숙이 들어올수록 선명해지는 질문이 있습니다.
"이 모델, 정말 안전하다고 말할 수 있는가?"
"우리가 측정하지 못한 위험은, 어디에 숨어 있는가?"
이 질문에 답하지 못하는 평가는 형식이 되고, 형식적인 평가는 결국 잘못된 확신을 만듭니다.
AIM Intelligence는 그 형식을 '증거'로, 잘못된 확신을 '정량화된 신뢰'로 바꿉니다.
우리는 멀티모달 레드티밍, 가드레일 평가, 글로벌 다국어 벤치마크를 통해 AI의 취약점을 발굴하고, 산업과 국가 단위에서 AI 안전성의 기준을 만듭니다.
압도적인 속도로 증명합니다.
2024년 7월 창업.
Anthropic, OpenAI, Google, Microsoft와 함께하고
삼성벤처투자, 미래에셋캐피탈, 포레스트파트너스, 스마일게이트인베스트먼트 등 업계 최고의 VC들이 총 100억여 원을 투자하며 우리의 비전에 동참한 이유는 명확합니다.
AI Safety의 기준을 만듭니다.
Evaluation Team은 ICML, ICLR, ACL, NeurIPS, AAAI 등 탑티어 학회에 논문을 발표하고, Microsoft와 Multiculture 벤치마크를 공동 개발하며, 한국 AI 안전연구소와 함께 Judgement Day와 같은 글로벌 레드티밍 대회를 주관하고, 금융·통신·의료·반도체 등 주요 산업과 국가기관의 모델을 평가하고 있습니다.
정해진 답이 없는 문제 앞에서 우리는 멈추지 않습니다.
우리가 내딛는 걸음이 산업의 기준이 되기에.
AIM과 함께 국내를 넘어 전 세계에서 AI Safety의 새로운 기준을 만들어갈 모든 Self-Innovator를 기다립니다.
#역량을 최우선으로 반영하여 업계 상위의 처우를 제공합니다.
#탑티어 페이퍼 작성자 우대
- LLM/VLM 가드레일 및 안전성 평가 파이프라인 개발
- 외부 기업 및 국가기관 모델 평가 프로젝트 수행 (금융, 통신, 의료, 반도체 등 도메인별 평가)
- 글로벌 다국어·다문화 평가 벤치마크 제작 및 기업 Policy Compliance 평가 체계 설계
- 새로운 공격 기법(Jailbreak, Adversarial Attack 등) 발굴 및 자동화된 평가 파이프라인 구축
- 해커톤 및 데이터셋 구축을 위한 글로벌 컴페티션 (Judgement Day 등) 주관·운영·결과 분석
- 연구 결과의 탑티어 학회 (NeurIPS, ICML, ICLR, ACL, AAAI 등) 논문화
- AI Safety, LLM/VLM Robustness, Adversarial ML, Red-teaming, Alignment 중 하나 이상에서 깊이 있는 연구 경험
- Python 기반 ML 실험 환경 (PyTorch, HuggingFace 등) 능숙
- 대규모 모델 추론·실험을 안정적으로 수행할 수 있는 엔지니어링 역량
- 통계적으로 타당한 실험 설계 및 결과 해석 능력
- 영어 논문 독해·작성 능력
▪ 소프트스킬
- 변화하는 우선순위와 다양한 형태의 프로젝트(논문, 외부 평가, 컴페티션 등)에 유연하게 적응하며 일할 수 있는 분
- 여러 프로젝트를 동시에 운영하면서도 각 프로젝트의 품질과 일정을 스스로 관리할 수 있는 분
- 주어진 과제를 수행하는 것을 넘어, 문제를 직접 정의하고 프로젝트를 처음부터 끝까지 주도적으로 리딩할 수 있는 분
- 백엔드·AI 엔지니어, 외부 도메인 전문가와 긴밀히 협업하며 평가 시스템을 설계·구축할 수 있는 분
"이 모델, 정말 안전하다고 말할 수 있는가?"
"우리가 측정하지 못한 위험은, 어디에 숨어 있는가?"
이 질문에 답하지 못하는 평가는 형식이 되고, 형식적인 평가는 결국 잘못된 확신을 만듭니다.
AIM Intelligence는 그 형식을 '증거'로, 잘못된 확신을 '정량화된 신뢰'로 바꿉니다.
우리는 멀티모달 레드티밍, 가드레일 평가, 글로벌 다국어 벤치마크를 통해 AI의 취약점을 발굴하고, 산업과 국가 단위에서 AI 안전성의 기준을 만듭니다.
압도적인 속도로 증명합니다.
2024년 7월 창업.
Anthropic, OpenAI, Google, Microsoft와 함께하고
삼성벤처투자, 미래에셋캐피탈, 포레스트파트너스, 스마일게이트인베스트먼트 등 업계 최고의 VC들이 총 100억여 원을 투자하며 우리의 비전에 동참한 이유는 명확합니다.
AI Safety의 기준을 만듭니다.
Evaluation Team은 ICML, ICLR, ACL, NeurIPS, AAAI 등 탑티어 학회에 논문을 발표하고, Microsoft와 Multiculture 벤치마크를 공동 개발하며, 한국 AI 안전연구소와 함께 Judgement Day와 같은 글로벌 레드티밍 대회를 주관하고, 금융·통신·의료·반도체 등 주요 산업과 국가기관의 모델을 평가하고 있습니다.
정해진 답이 없는 문제 앞에서 우리는 멈추지 않습니다.
우리가 내딛는 걸음이 산업의 기준이 되기에.
AIM과 함께 국내를 넘어 전 세계에서 AI Safety의 새로운 기준을 만들어갈 모든 Self-Innovator를 기다립니다.
#역량을 최우선으로 반영하여 업계 상위의 처우를 제공합니다.
#탑티어 페이퍼 작성자 우대
주요업무
- 멀티모달(텍스트·이미지·오디오·비디오) 레드티밍 벤치마크 설계 및 구축- LLM/VLM 가드레일 및 안전성 평가 파이프라인 개발
- 외부 기업 및 국가기관 모델 평가 프로젝트 수행 (금융, 통신, 의료, 반도체 등 도메인별 평가)
- 글로벌 다국어·다문화 평가 벤치마크 제작 및 기업 Policy Compliance 평가 체계 설계
- 새로운 공격 기법(Jailbreak, Adversarial Attack 등) 발굴 및 자동화된 평가 파이프라인 구축
- 해커톤 및 데이터셋 구축을 위한 글로벌 컴페티션 (Judgement Day 등) 주관·운영·결과 분석
- 연구 결과의 탑티어 학회 (NeurIPS, ICML, ICLR, ACL, AAAI 등) 논문화
자격요건
▪ 하드스킬- AI Safety, LLM/VLM Robustness, Adversarial ML, Red-teaming, Alignment 중 하나 이상에서 깊이 있는 연구 경험
- Python 기반 ML 실험 환경 (PyTorch, HuggingFace 등) 능숙
- 대규모 모델 추론·실험을 안정적으로 수행할 수 있는 엔지니어링 역량
- 통계적으로 타당한 실험 설계 및 결과 해석 능력
- 영어 논문 독해·작성 능력
▪ 소프트스킬
- 변화하는 우선순위와 다양한 형태의 프로젝트(논문, 외부 평가, 컴페티션 등)에 유연하게 적응하며 일할 수 있는 분
- 여러 프로젝트를 동시에 운영하면서도 각 프로젝트의 품질과 일정을 스스로 관리할 수 있는 분
- 주어진 과제를 수행하는 것을 넘어, 문제를 직접 정의하고 프로젝트를 처음부터 끝까지 주도적으로 리딩할 수 있는 분
- 백엔드·AI 엔지니어, 외부 도메인 전문가와 긴밀히 협업하며 평가 시스템을 설계·구축할 수 있는 분

