AI 기업이 모델의 잠재적 ‘사보타주’ 가능성을 스스로 공개적으로 평가했다는 점은 꽤 의미 있어 보입니다. 특히 코드 백도어 삽입이나 훈련 데이터 오염 같은 시나리오는 실제 개발,배포 파이프라인과 밀접해 있어 현실적인 고민처럼 느껴집니다. 모델 성능 경쟁만큼이나 모니터링,코드 리뷰,샌드박스 설계 같은 기본적인 엔지니어링 통제가 더 중요해질 것 같습니다. 결국 AI 신뢰성은 모델 자체 능력보다도, 이를 둘러싼 운영 체계의 성숙도가 좌우하지 않을까 생각됩니다.