1. 스트라드비젼 - AI Safety Manager 채용 공고
AI Safety Manager(Seoul)
스트라드비젼(STRADVISION)의 공고를 확인해 보세요.
stradvision.career.greetinghr.com
2. 회사 및 조직 분석
스트라드비젼(STRADVISION)은 딥러닝 기반 카메라 비전 기술로 ADAS/자율주행을 지원하는 비전 인지 솔루션 전문 스타트업입니다. 2014년 서울에서 설립된 이래 전방/서라운드 뷰 객체인식(차량·보행자·차선·신호등 등)에 강점을 지닌 SVNet 제품을 개발해 왔습니다. SVNet은 이미 여러 글로벌 OEM 차량에 적용됐고, ISO 26262 기능안전 인증을 획득했으며 연간 생산 대수 누계 100만 대를 넘기는 등 상용화 실적을 쌓고 있습니다. 회사는 현재 전 세계 9개 거점(서울·산호세·디트로이트·도쿄 등)에 300여 명의 직원이 재직 중이며, 딥러닝·임베디드·고급 알고리즘 분야의 역량을 기반으로 자율주행 기술을 발전시켜나가고 있습니다.
스트라드비젼은 2019년 업계 최초로 ASPICE CL2(자동차 SW 개발 프로세스 성숙도 레벨2) 인증을 받았으며, 2021~22년 연속 AutoSens ‘최고급 소프트웨어’ 금상 수상, 약 167건의 자율주행/ADAS 관련 특허 등록 등 기술력을 인정받아 왔습니다. 2022년 8월에는 Aptiv와 ZF 등 글로벌 자동차 부품기업이 참여하는 시리즈 C 투자(1,076억원)를 성공적으로 유치했고, 누적 투자금은 약 1,290억원(약 1.29억 달러)에 이릅니다. 이처럼 주요 OEM 및 Tier1과 파트너십을 확대하며 AI 카메라 인지 소프트웨어(SVNet) 공급을 본격화하는 중입니다.
스트라드비젼은 “모든 것을 지능적으로 지각하게(We Empower Everything To Perceive Intelligently)”라는 미션 아래 안전한 자율주행을 위한 Vision AI 기술을 개발 중입니다. 조직 문화는 개방·존중을 강조하며(다양성 중시), 개발팀·제품·법무·컴플라이언스 등 다기능 부서 간 협업을 활성화하고 있습니다. 이러한 기술지향적 조직 구조와 충분한 연구개발(R&D) 투자를 바탕으로 스트라드비젼은 글로벌 ADAS·자율주행 카메라 솔루션 시장에서 선도적 입지를 확보 중입니다.
2. 직무 분석
2.1 채용공고 직무 세부 분석
채용공고에서 요구하는 주요 업무는 크게 SOTIF 프로세스 수립·관리, 안전 설계·개발 관리, 위험분석(HARA) 및 안전 평가 주도, 팀 리더십, 교차 기능 협업, 지속적 개선, 문서화 등으로 요약됩니다. 이를 기술 관점에서 해석하면 다음과 같습니다.
- SOTIF 프로세스 적용·준수: SOTIF(안전 의도 기능 보장)는 ISO 21448 기준으로, 시스템이 정상 기능에도 위험을 야기할 수 있는 상황을 다룹니다. AI Safety Manager는 SOTIF 체계를 개발 수명주기에 통합해야 합니다. 예를 들어, 시스템 요구기능의 한계와 환경변수(예: 낮은 조도, 비정상적 교통상황 등)를 시나리오로 정의하여 잠재적 위험을 분석하고, 안전 목표를 설정하는 작업이 포함됩니다. ISO 21448은 ISO 26262가 다루지 못하는 “기능적 불충분(functional insufficiency)” 위험(예: AI 모델의 학습 부족, 성능 한계)을 다루므로, 해당 표준 절차에 맞춘 위험 확인 및 완화 조치가 필요합니다.
- 안전 요구사항 정의 및 설계관리: 시스템 설계 초기 단계에서 AI 시스템의 안전 요구사항을 도출하고 이를 제품 개발에 반영해야 합니다. 예컨대, 영상 인식 딥러닝 모델의 검출 정확도, 지연(응답시간), 신뢰도 등의 성능 목표를 안전 요구사항으로 명시하고, 설계 아키텍처(알고리즘 구조, 센서 구성 등)에 통합하는 역할입니다. 이 때 ISO 26262의 안전 목표·ASIL(자동차 안전 무결성 수준) 개념도 적용하여, 위험 시나리오별 ASIL을 산정하고 그에 맞는 안전 메커니즘(이중 센서, 펜실 검증 등)을 설계해야 합니다. 결과적으로 SW/HW 설계·검증 문서에 안전 요건이 추적 가능(traceable)하게 기록됩니다.
- 위험분석(HARA) 및 안전성 평가 주도: Hazard Analysis and Risk Assessment(HARA, 위험분석평가)는 ISO 26262 Part 3에서 정의된 핵심 절차로, 시스템 기능이 의도와 다르게 동작해 발생할 수 있는 위험을 식별하여 위험 수준(심각도·노출도·제어 가능도)을 평가한 뒤 안전 목표를 도출합니다. AI Safety Manager는 HARA를 이끌며 영상인식 시스템의 오작동, 퍼포먼스 한계, 오탐·미탐 시나리오 등을 분석해야 합니다. 예시: 차량 전방 객체인식 시스템이 악천후나 혼잡환경에서 제대로 작동하지 않을 경우, 해당 상황의 HARA를 수행하여 「주행 중 충돌 가능성(Severity)」「동일 상황 발생 빈도(Exposure)」「운전자 개입 가능성(Controllability)」등을 평가하고, 필요한 안전 목표(예: “악천후에서도 객체를 x% 이상의 확률로 검출”)와 기능안전 대책(예: 센서퓨전, 보조경고) 등을 설정합니다. 이 밖에도 FMEA(고장 모드 영향 분석), HAZOP 등 다양한 분석 기법을 이용해 위험 요인을 체계적으로 평가·관리합니다.
- 팀 리더십 및 관리: AI 안전 관련 프로젝트 팀을 이끌고, 프로젝트 일정·성과를 관리하며 팀원이 안전 프로세스를 숙지하도록 교육·코칭합니다. 팀 내부에서 SOTIF, ISO26262, ASPICE(소프트웨어 프로세스 인증) 등 기술 지식을 공유하고, 업무 분담·검토를 총괄하며 성과 목표를 달성하도록 합니다. 또한 조직 내 안전문화 확산을 위해 기술 세미나나 워크숍 등을 기획할 수도 있습니다.
- 교차 기능 협업: 개발 엔지니어·제품기획·법무·컴플라이언스 부서와 협력하여 안전 기준을 준수합니다. 예를 들어, 제품 관리자와 협력해 안전 요구사항을 제품 로드맵에 반영하고, 법무팀과 함께 최신 법규·윤리 기준(예: 개인정보·보안, AI 윤리 가이드라인)을 점검하여 안전 정책에 반영해야 합니다. 특히 ISO 26262·21448 등 국제표준 이외에도 EU AI법, 교통 규제 등 법적 요구사항이 반영되도록 의견을 조율합니다.
- 지속적 개선: 최신 기술·표준·사고사례를 조사하여 사내 안전 프로세스에 반영합니다. 예를 들어 자율주행 시뮬레이션이나 합성데이터를 활용한 V&V 방법을 도입하거나, 머신러닝 모델의 예측 신뢰도 검증 기법을 연구하는 등 끊임없이 안전성 평가 기법을 고도화합니다. 또한 분석 결과를 바탕으로 안전 매뉴얼과 프로세스를 갱신하고, 전사원 대상 교육 프로그램을 설계합니다.
- 문서화 및 안전증명: SOTIF/ISO26262 표준에 부합하는 안전 문서(예: 안전 계획서, 위험분석 보고서, 안전 케이스 등)를 작성·관리합니다. 모든 안전활동의 결과와 검증 데이터(테스트 시나리오, 결과 등)를 문서로 체계화하여, 감사나 인증 심사 시 제출할 수 있도록 합니다. 이 과정에서 Traceability Matrix 등을 활용해 요구사항→설계→테스트 간 연계를 명확히 유지해야 합니다.
2.2 직무 관련 업계 최신 동향
기능 안전 및 SOTIF
ISO 26262(기능안전)는 전기·전자 시스템의 고장(failure)에 따른 위험 관리 지침을 제공합니다. 하지만 정상 기능만으로도 위험이 발생할 수 있는 자율주행 분야에서는 ISO 26262만으로 충분하지 않습니다. 이를 보완하는 ISO 21448(SOTIF)은 “의도된 기능의 안전”을 다룹니다. 즉, 시스템 고장 없이도 센서 한계나 알고리즘 성능 한계로 인해 사고가 날 수 있는 시나리오를 식별하고 잔여 위험(Residual Risk)을 평가합니다. 예를 들어, ISO 26262는 차량 전조등 고장 시 안전장치 설계를 다루지만, SOTIF는 안개나 폭우 속에서 카메라가 객체를 놓칠 때의 위험까지 검토합니다. ISO 21448은 ISO 26262에서 다루지 않는 환경 및 성능 기반 위험을 분석하기 위해 “환경 시나리오 통합” 등 지침을 제공합니다.
최근 업계에서는 SOTIF 프로세스 도입 확대가 큰 트렌드입니다. TUV SÜD 보고서에 따르면, SOTIF 목표는 시스템의 전체 잔여 위험을 평가하여 허용 기준 이내로 낮추는 것이며, 이는 ISO 26262의 개별 위험 기여도 관리와는 차별화됩니다. 한편 ISO 26262 최신판(제2판 2018)은 자율주행 대응을 강화했으며, 미국 SAE J3061, ISO/TR 4804 등과 함께 시스템 개발 안전성 가이드를 마련해 왔습니다. 더불어 ISO/PAS 8800:2024(AI 시스템 안전 지침)는 자율주행 AI의 “오동작” 위험(ISO 26262)과 “기능적 불충분” 위험(SOTIF)을 모두 체계적으로 관리하는 새로운 기준을 제시하고 있습니다. 이를 통해 AI 요소의 안전 관리 체계 수립, 성능 요구사항 정의, 안전 사례 구축, V-모델 기반 개발 프로세스 적용 등 AI 특화된 안전 절차가 정립되고 있습니다.
구분 | ISO 26262(기능안전) | ISO21448 (SOTIF) |
대상 위험 | 시스템의 HW/SW 고장(failure)에 의한 위험 | 정상 기능의 한계에 의한 위험(성능 제한, 오탐·미탐 등) |
안전 개념 | 안전 목표, ASIL 등 고장안전 요구사항 도출 (기능안전 개념) | 성능 한계에 따른 잔여 위험(Residual Risk) 분석 및 수용 기준 설정 |
분석/검증 방법 | HARA(HA/ZOP, FMEA, FTA 등) → 안전 목표/시스템 안전 설계 | 시나리오 기반 검증, 합성 데이터 및 실제 주행 테스트 등으로 성능 한계 검증 |
목표 | 고장 발생 시 안전한 실패(Safe Failure) 보장 | 알고리즘 오작동 없이도 허용 가능한 안전 수준 유지 |
인증/프로세스 | ISO 26262 인증, HSE 시험 규격 등 | ISO 21448 지침 준수(산업별 권고 준수 수준) |
※ ISO 26262는 전통적 기능안전 영역의 위험(오동작)을, SOTIF는 AI 모델 불완전성과 주행 환경 한계로 인한 위험(기능적 불충분)을 다루는 점에서 차이가 있습니다.
AI 법규 및 윤리 기준
AI 기반 자율주행에서는 AI 윤리·법규도 중요한 동향입니다. 2024년 8월 발효된 EU AI법(AI Act)는 교통안전 등 고위험(High-Risk) 분야의 AI 시스템에 엄격한 요건을 부과합니다. 자율주행차의 핵심 AI 시스템(인지·의사결정·제어 등)은 공공안전에 미치는 영향으로 고위험 AI로 분류되므로, 투명성·안정성·데이터 품질·모니터링 등의 엄격한 준수 의무가 적용됩니다. 실제로 EU 법안은 “많은 자율주행 시스템이 공공안전에 미치는 영향으로 고위험 AI 범주에 속할 것”이라고 명시하며, 제조사와 부품사는 위험 분류, 연속적 위험관리, 데이터 관리, 사후 감시 체계를 미리 구축해야 합니다.
국내에서는 국토교통부의 『자율주행차 윤리기준』(2020) 등도 참고할 만합니다. 해당 지침은 자율주행차를 “인간의 안전·편리 이동권을 보장하고 타인의 권리를 침해하지 않도록 설계·제작·관리”해야 한다고 명시합니다. 또한 자율주행 사고 시 책임 주체 등을 규정하여, 개발자·운영자·제조사가 책임원칙에 따른 의무를 다하도록 권고하고 있습니다. 이외에도 IEEE 7000 시리즈(자율시스템 윤리 가이드)나 UNESCO AI 윤리 원칙 등 글로벌 AI 윤리 기준들이 제정되어, 산업 전반에서 안전·공정·책임성 요소를 강조하고 있습니다.
3. 준비사항 및 학습 포인트
AI Safety Manager 역할은 자율주행 AI와 기능안전에 대한 깊은 전문성을 요구하므로, 다음과 같은 준비가 필요합니다.
- 안전 표준 이해 및 자격: ISO 26262(Functional Safety)와 ISO 21448(SOTIF)을 깊이 학습합니다. ISO 26262 기능안전 자격(예: TÜV Functional Safety Engineer) 취득을 통해 시스템 설계부터 검증까지의 프로세스를 익힐 수 있습니다. ISO 21448 SOTIF 워크숍이나 관련 교육을 통해 시나리오 기반 검증과 “잔여 위험 수용 기준” 수립 방법을 숙지해야 합니다. ASPICE CL2 프로세스 이해 및 CMMI·SPICE 인증 준비 경험도 큰 도움이 됩니다.
- 소프트웨어/시스템 엔지니어링 역량: AI 카메라 인식을 포함한 SW 개발 경험이 중요합니다. C/C++이나 Python 같은 언어를 이용한 임베디드 시스템 개발 역량, ROS·AUTOSAR 같은 플랫폼 경험, OpenCV·TensorFlow·PyTorch 등 딥러닝 프레임워크 활용 능력을 갖추어야 합니다. 모델 성능 분석을 위해 ML 프레임워크를 사용해보고, 정량적 성능 지표(정확도, 지연, 예측 신뢰도 등)를 정의·계측해 보는 훈련도 필요합니다.
- 안전성 평가 경험: 실제 프로젝트에서 HARA·FMEA 수행 경험을 쌓습니다. 예를 들어, 논문이나 온라인 자료를 참고하여 가상의 ADAS 시나리오로 HAZOP 분석 연습을 해보고, 리스크 매트릭스를 작성해보는 것이 좋습니다. 시뮬레이터(CARLA, LGSVL 등)를 활용해 극한 상황(장마, 야간, 흑백 대비 등)에서 객체인식 성능을 검증해보고, 이 결과를 바탕으로 안전 목표를 설정해보는 것도 실무 감각을 기르는데 유익합니다. 또한 SW/하드웨어 결함 주입 테스트나 System-theoretic 사고 분석(STAMP/STPA) 같은 최신 기법도 학습해봅니다.
- 법규·윤리 인식 강화: EU AI Act, UNECE 자동화 규제(R155/157) 등 자율주행 관련 법규를 공부하고, K-ADAS/K-AI 관련 정책 동향도 팔로우합니다. 개인정보·보안 기준(GDPR, KISA 지침 등)과 자율주행 윤리 가이드라인의 요점을 숙지하여, 기술 개발이 규제와 윤리 기준을 모두 만족하도록 할 수 있어야 합니다. 공인 교육(정부·산업체 주관 세미나 등)이나 온라인 코스(ISO 26262·SOTIF 교육 프로그램) 이수를 통해 최신 정보를 업데이트합니다.
- 협업 및 소통 능력: 안전팀은 타부서와 협업이 필수이므로, 기술 내용을 비즈니스/법무 팀에도 이해시키는 커뮤니케이션 스킬이 중요합니다. 따라서 안전 컨셉을 프레젠테이션하고 문서화할 수 있는 능력과, 영어·한국어로 기술 문서를 작성할 수 있는 역량도 함께 준비해야 합니다.
이와 같이 자율주행 AI의 안전성 확보를 위해서는 시스템적 사고와 폭넓은 경험이 요구됩니다. 기본적으로는 기능안전·SOTIF 이론을 탄탄히 다지는 한편, 실무에서는 센서·알고리즘 성능 한계를 직접 검증하고, 관련 표준에 따라 안전성을 수치적으로 보증할 수 있도록 경험을 쌓아야 합니다. 이러한 준비를 통해 해당 직무의 높은 기술적 난이도와 실무 적용성을 충족할 수 있을 것입니다.
4. 맺음말
만약 이러한 직무로 커리어를 쌓고 싶으시거나 어떤 직무가 나에게 더 잘 맞는지 알고 싶으시다면, 직무 매칭을 도와드리는 컨설팅을 받아보시는 것도 추천드립니다. 아래 링크를 통해 편하게 문의주시면, 직무 진단부터 준비 방향 설정까지 1:1로 도와드리겠습니다.
자동차SW 취업 준비부터 면접까지 컨설팅 해드립니다 - 크몽
자율주행SW전문가 전문가의 취업·입시 서비스를 만나보세요. <p><strong style="font-size: 24px;&q...
kmong.com
'산업 및 직무 정보' 카테고리의 다른 글
Waymo, System Safety Engineer, Operations & Fleet Response Job Description 및 직무 분석 (9) | 2025.06.09 |
---|---|
현대모비스 BMS SW 설계 직무 분석 및 준비 가이드 (5) | 2025.06.08 |
현대모비스 ADAS 센서 MCU SW 직무 분석 및 준비 가이드 (1) | 2025.06.08 |
현대모비스 전동화 SW 검증 직무 분석 및 준비 가이드 (4) | 2025.06.08 |
현대모비스 ADAS/자율주행 실차평가 직무 분석 및 준비가이드 (4) | 2025.06.08 |