Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

OpenAI, AI 기술의 ‘군사’ 사용 방침 변경

테스트중Alt
출처 : Computerworld

OpenAI, AI 기술의 ‘군사적’ 활용에 관한 정책 변경

ChatGPT를 개발한 OpenAI가 군사 및 전쟁 상황에서의 AI 기술 적용에 관한 사용 정책을 변경했습니다. 1월 10일부터 시행된 이번 정책 변경에는 무기 개발, 군사적 목적, 자해를 조장하는 콘텐츠에 OpenAI 모델을 사용하는 것을 금지했던 특정 문구를 삭제하는 내용이 포함되어 있습니다.

가독성을 높이고 서비스별 지침을 제공하기 위해 업데이트된 정책은 이제 허용되지 않는 활동의 목록을 범용 정책으로 압축합니다. 이러한 정책은 타인에게 해를 끼치기 위해 OpenAI 서비스를 사용하는 것을 금지하고, 타인에게 해를 끼칠 수 있는 모델의 결과물을 용도 변경하거나 배포하는 것을 금지합니다.

OpenAI의 점진적인 입장 변화

오픈AI의 이러한 정책 변화는 국방 또는 군사 관련 기관과의 협업에 대한 회사의 입장이 점차 약화되고 있는 것으로 인식되고 있습니다. 그러나 OpenAI의 CEO인 샘 알트먼을 비롯한 전문가들은 AI와 관련된 위험에 대한 우려를 제기하고 있습니다.

기술 업계 리더, 학자, 유명 인사들로 구성된 그룹은 지난 5월 AI의 잠재적 위험성을 강조하며 재앙적인 결과를 피하기 위해 전 세계적으로 AI 기술을 우선적으로 통제해야 한다고 강조하는 공개 서한에 서명했습니다. 특히 이 서한에는 샘 알트만과 마이크로소프트의 CTO 케빈 스콧을 비롯해 구글의 AI 연구소인 딥마인드의 임원, 엔지니어, 과학자 등이 서명했습니다.

이보다 앞서 지난 3월에는 1,100명이 넘는 기술 분야의 저명인사, 리더, 과학자들이 대규모 AI 실험에 대한 경고를 발표했습니다. 또한, OpenAI는 프론티어 AI 모델이 핵전쟁 및 기타 잠재적 위협을 유발하는 것을 방지하기 위한 팀을 적극적으로 준비해 왔습니다.

우려와 연구 결과

연구자들은 “악” 또는 “나쁜” AI 모델을 “선”으로 훈련시키는 기존 기술의 한계에 대해 우려를 제기했습니다. Anthropic이 주도한 한 연구 논문에 따르면 AI 모델의 기만적인 행동이 표준 안전 훈련 기법을 통해 제거되지 않고 지속될 수 있습니다.

연구자들은 또한 기만적 행동에 대응하기 위해 사용되는 적대적 훈련이 의도치 않게 모델의 백도어 트리거 인식 능력을 향상시켜 안전하지 않은 행동을 효과적으로 숨길 수 있다는 사실을 발견했습니다.

오픈AI의 이러한 정책 변화는 군사 애플리케이션에서 AI 기술의 오용 가능성에 대한 우려를 불러일으킵니다. 변경된 정책은 군사 및 전쟁 시나리오에서 AI 배포를 둘러싼 윤리적 고려 사항을 탐색하는 동시에 보다 명확한 지침을 제공하려는 OpenAI의 노력을 반영합니다.

정책에서 군사적 사용과 관련된 특정 문구를 삭제하기로 한 OpenAI의 결정은 향후 군사 기관과의 협업 및 파트너십에 영향을 미칠 수 있습니다.

전반적으로 AI 기술의 군사적 적용에 관한 OpenAI의 정책 변경은 회사의 접근 방식에 주목할 만한 변화가 있음을 시사하며, 군사적 맥락에서 책임감 있는 AI 사용에 대한 논의를 촉발할 것입니다.

SHARE THIS POST