"가장 윤리적인 AI를 만들겠습니다." 앤스로픽(Anthropic)이 창업 때부터 내건 약속입니다. 하지만 최근 이란 공습 현장에서 그 약속이 무너졌다는 소식이 들려옵니다.
평화의 도구가 어떻게 전쟁의 칼날이 되었는지, 그 긴박한 내막을 정리해 드립니다.
"생각보다 빠른 폭격" 뒤에 숨은 클로드의 계산기
최근 발생한 이란 공습(오퍼레이션 에픽 퓨리)에서 군사 전문가들이 가장 놀란 건 '속도'였습니다. 수천 개의 타겟을 정밀 타격하는 데 걸린 준비 시간이 과거의
절반 이하로 줄었기 때문입니다. 그 중심에 바로 클로드(Claude)가 있었습니다.
방대한 데이터 요약: 이란 내 수만 명의 통신 기록과 지형 데이터를 순식간에 분석해 '핵심 타겟'을 추려냈습니다.
최적의 경로 계산: 적의 방공망을 피해 미사일이 날아갈 수 있는 수천 가지 시나리오를 시뮬레이션했습니다.
현장의 목소리: 미 중부사령부 관계자는 "클로드가 없었다면 이번 작전의 성공률은 장담할 수 없었을 것"이라며 사실상 AI가 작전의 '브레인'이었음을 시인했습니다.
국방부의 최후통첩: "통제권은 우리에게 있다"
하지만 이 화려한 전과 뒤에선 거대한 충돌이 일어나고 있었습니다.
지난 2월 24일, 미 국방부 본청인 펜타곤에서 국방부와 앤스로픽이 마주 앉았지만 회동은 합의 없이 끝났습니다.
국방부의 요구: "국가 안보를 책임지는 우리가 왜 민간 기업의 내부 정책에 휘둘려야 하나?" 국방부는 AI를 '합법적인 모든 용도'에 예외 없이 사용할 수 있어야 한다고 압박했습니다.
앤스로픽의 레드라인: "대규모 감시와 인간 개입 없는 자율 무기에는 절대 안 된다." 창립 초기부터 지켜온 안전 원칙을 굽히지 않았습니다.
정치적 프레임: 트럼프 대통령까지 가세해 앤스로픽을 "군을 좌지우지하려는 급진 좌파 기업"이라며 이념 전쟁으로 몰아넣었습니다.
국방부는 결국 앤스로픽을 '국가안보 공급망 위험' 기업으로 지정하겠다며 퇴출 수순을 밟기 시작했습니다. "우리가 자율 무기를 안 만드는 것과, 너희 때문에 '못' 만드는 것은 천지 차이"라는 것이 국방부의 핵심 불만입니다.
그 빈자리를 꿰찬 오픈AI(ChatGPT)의 'YES'
앤스로픽이 쫓겨난 빈 자리는 라이벌인 오픈AI가 발 빠르게 차지했습니다.
2,700억 원의 계약: 오픈AI는 국방부와 대규모 공급 계약을 체결했습니다. "군사적 목적이라도 법적 테두리 안이라면 돕겠다"는 입장으로 선회한 것입니다.
엇갈린 행보: 클로드는 '윤리'를 지키다 정부와 소송전까지 불사하고 있고, 챗지피티는 국방부의 핵심 파트너로 기밀실 깊숙이 들어갔습니다. 이제 미래의 전쟁터에서는 클로드 대신 챗지피티의 분석 결과가 미사일 좌표를 찍게 될지도 모릅니다.
독자들이 묻고 답하다 (Q&A)
Q. 클로드가 실제 타격 프로세스에 어느 정도 관여했나요?
A. 직접적인 실행(Engagement) 단계가 아닌, 표적 식별 및 분석(Targeting & Analysis) 단계에서 핵심 역할을 수행했습니다. 수많은 데이터 중 '누구를, 어디를 타격할지'에 대한 우선순위 리스트를 추출한 것인데, 이는 지휘관의 최종 승인(Human-in-the-loop) 전단계에서 가장 결정적인 '정답지'를 제공한 셈입니다.
Q. 오픈AI의 행보를 어떻게 해석해야 할까요?
A. 앤스로픽이 '기술적 레드라인'이라는 원칙을 고수했다면, 오픈AI는 '법적 테두리 내에서의 협력'이라는 실용주의 노선을 택했습니다.
"최종 결정은 인간이 하므로 안전하다"는 명분을 내세웠지만, 군사적 활용을 제한하던 내부 가이드라인을 사실상 무력화했다는 점에서 수익과 안보라는 현실적 가치를 선택한 것으로 풀이됩니다.
가장 안전한 AI를 꿈꿨던 클로드의 분석 결과가 가장 위험한 전장에서 쓰였습니다.
개발자의 선의가 기술의 악용을 막을 수 없다는 이 서글픈 진실을 우리는 어떻게 받아들여야 할까요? '인류를 위한 AI'라는 슬로건이 오늘따라 유독 무겁게 느껴집니다.
IT 잇생레터 dongkuksystem@gmail.com 서울특별시 중구 을지로5길 19, 9F 02-2101-0900 수신거부Unsubscribe