포지션 상세
모티프드라이브(Motif Drive)는 자율주행 및 첨단 운전자 보조 시스템(ADAS) 분야의 AI 기술을 선도하는 혁신적인 기술 기업입니다. 당사는 엣지 AI 플랫폼에서 고성능 인공지능 알고리즘을 실시간으로 구동하기 위한 최적화 기술을 연구·개발하며, NVIDIA Jetson 기반의 임베디드 시스템에서 세계 최고 수준의 추론 성능을 실현하고자 합니다. 도전적인 기술 문제를 함께 해결해 나갈 열정적인 인재를 모십니다.
• TensorRT 를 활용한 딥러닝 모델 경량화 및 추론 가속화
– FP32 / FP16 / INT8 정밀도 최적화 및 양자화(Quantization) 적용
– TensorRT 엔진 빌드, 프로파일링 및 성능 튜닝
• ONNX 를 활용한 AI 모델 플랫폼 간 전개 파이프라인 구축 및 운영
• NVIDIA 플랫폼 특성에 맞춘 알고리즘 재설계 및 아키텍처 최적화
• CUDA 커널 분석 및 GPU 병렬 연산 최적화
• 임베디드 환경에서의 실시간 추론 파이프라인 설계 및 개발
• 메모리 사용량, 레이턴시, 처리량 등 엣지 디바이스 성능 지표 개선
• 개발팀, 알고리즘팀과 협력하여 제품 품질 및 성능 목표 달성
• TensorRT 를 활용한 AI 모델 최적화 및 배포 실무 경험
• ONNX 모델 변환 및 다양한 플랫폼 전개 경험
• NVIDIA GPU 아키텍처 및 CUDA 프로그래밍에 대한 깊은 이해
• C/C++ 및 Python 프로그래밍 능숙
• 딥러닝 프레임워크(PyTorch, TensorFlow 등) 활용 능력
• 임베디드 Linux 환경에서의 개발 경험
• 알고리즘 성능 분석 및 병목 구간 최적화 능력
[주요 기술 스택]
• 플랫폼 : NVIDIA Jetson Orin / Xavier / Nano 시리즈
• 추론 최적화 : TensorRT, ONNX Runtime, TFLite
• GPU 프로그래밍 : CUDA, cuDNN, cuBLAS
• 언어/프레임워크 : C/C++, Python, PyTorch, TensorFlow
• 운영 환경 : Linux (Ubuntu, JetPack SDK), Docke
주요업무
• NVIDIA Jetson 플랫폼(Orin, Xavier, Nano 등)에서의 AI 알고리즘 분석 및 성능 최적화• TensorRT 를 활용한 딥러닝 모델 경량화 및 추론 가속화
– FP32 / FP16 / INT8 정밀도 최적화 및 양자화(Quantization) 적용
– TensorRT 엔진 빌드, 프로파일링 및 성능 튜닝
• ONNX 를 활용한 AI 모델 플랫폼 간 전개 파이프라인 구축 및 운영
• NVIDIA 플랫폼 특성에 맞춘 알고리즘 재설계 및 아키텍처 최적화
• CUDA 커널 분석 및 GPU 병렬 연산 최적화
• 임베디드 환경에서의 실시간 추론 파이프라인 설계 및 개발
• 메모리 사용량, 레이턴시, 처리량 등 엣지 디바이스 성능 지표 개선
• 개발팀, 알고리즘팀과 협력하여 제품 품질 및 성능 목표 달성
자격요건
• 관련 분야 경력 6 년 이상 (임베디드 시스템, AI/ML 엔지니어링 등)• TensorRT 를 활용한 AI 모델 최적화 및 배포 실무 경험
• ONNX 모델 변환 및 다양한 플랫폼 전개 경험
• NVIDIA GPU 아키텍처 및 CUDA 프로그래밍에 대한 깊은 이해
• C/C++ 및 Python 프로그래밍 능숙
• 딥러닝 프레임워크(PyTorch, TensorFlow 등) 활용 능력
• 임베디드 Linux 환경에서의 개발 경험
• 알고리즘 성능 분석 및 병목 구간 최적화 능력
[주요 기술 스택]
• 플랫폼 : NVIDIA Jetson Orin / Xavier / Nano 시리즈
• 추론 최적화 : TensorRT, ONNX Runtime, TFLite
• GPU 프로그래밍 : CUDA, cuDNN, cuBLAS
• 언어/프레임워크 : C/C++, Python, PyTorch, TensorFlow
• 운영 환경 : Linux (Ubuntu, JetPack SDK), Docke



