Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

genAI 파트너 선택: 신뢰는 중요하지만 검증도 필요해요

테스트중Alt
출처 : Computerworld

genAI 파트너 선택하기: 신뢰하되 검증하기

제너레이티브 AI 열풍이 기업 경영진을 매료시키고 있는 가운데, 경영진은 IT 부서가 어떻게든 이를 실현해야 한다고 주장하고 있습니다.

제너레이티브 인공 지능(genAI)의 가능성에 매료된 기업 경영진은 IT 부서에 이 기술을 구현하는 방법을 알아내라고 요구하는 경우가 많습니다.

genAI에 대한 일반적인 우려, 예를 들어 생성되는 모든 라인을 확인해야 하는 환각 및 기타 오류(효율성 향상에 대한 기대가 사라질 수 있음)는 제쳐두겠습니다. 또는 데이터 유출이 불가피하며 너무 늦기 전까지는 이를 감지하는 것이 거의 불가능할 것이라는 우려도 있습니다. (OWASP는 genAI와 LLM으로 인한 가장 큰 IT 위협에 대한 인상적인 목록을 작성했습니다.)

임무를 수행할 때 논리와 상식이 항상 고위 경영진의 강점인 것은 아닙니다. 즉, IT 부서의 질문이 “GenAI를 도입해야 할까? 우리에게 합당한가?”가 아닙니다. 그럴 것입니다: “우리는 그것을 하라는 명령을 받았습니다. 가장 비용 효율적이고 안전한 방법은 무엇일까?”

입니다.

이러한 질문을 염두에 두고 저는 AWS의 CEO인 아담 셀립스키와의 인터뷰에서 특히 다음과 같은 발언에 흥미를 느꼈습니다: “대부분의 기업 고객은 모델을 구축하지 않을 것입니다. 대부분은 다른 사람들이 구축한 모델을 사용하기를 원합니다. 한 회사가 전 세계의 모든 모델을 공급한다는 생각은 현실적이지 않다고 생각합니다. 우리는 고객이 실험을 필요로 한다는 것을 발견했고, 그러한 서비스를 제공하고 있습니다.”

타당한 주장이며 많은 최고 경영진의 생각을 공정하게 요약한 것입니다. 하지만 꼭 그래야 할까요? 선택은 단순히 구매 대 구축의 문제가 아닙니다. 기업이 자체 모델을 만들고 관리해야 할까요? 대형 업체(특히 AWS, Microsoft, Google 등)에 의존해야 할까요? 아니면 GenAI 분야의 수십 개 소규모 전문 업체 중 한 곳을 이용해야 할까요?

?

기업과 기업의 특정 요구 사항 및 목표에 따라 이 세 가지를 모두 조합할 수도 있고, 조합해야 할 수도 있습니다.

수천 가지의 물류와 세부 사항을 고려해야 하지만, genAI 개발 및 배포와 관련된 기본적인 엔터프라이즈 IT 질문은 간단합니다: 바로 신뢰입니다.

genAI 사용 결정은 엔터프라이즈 클라우드 결정과 많은 공통점이 있습니다. 두 경우 모두 기업이 지적 자산(가장 민감한 데이터)의 대부분을 제3자에게 넘긴다는 점입니다. 그리고 두 경우 모두 써드파티는 가능한 한 적은 가시성과 제어 기능을 제공하려고 합니다.

클라우드에서 기업 테넌트는 데이터에 직접적인 영향을 미치는 구성이나 기타 설정 변경에 대해 거의 알려주지 않습니다. (클라우드 공급업체가 기업 테넌트에게 이러한 변경에 대한 권한을 요청하는 것은 꿈도 꾸지 마세요.)

genAI를 사용하면 내 데이터가 어떻게 보호되고 있나요? genAI의 답변은 어떻게 보호되나요? 우리의 데이터 학습이 경쟁업체에서 사용할 수 있는 모델인가요? 모델이 무엇을 학습하고 있는지 정확히 알 수 있는 방법은 무엇인가요?

실제로 이 문제는 계약을 통해 처리하거나 피할 수 있으며, 결국 유명 서드파티와 협력할지 아니면 잘 알려지지 않은 소규모 회사와 협력할지 선택해야 합니다. 규모가 작을수록 계약 조건을 수락할 가능성이 높습니다.

genAI 전략을 수립할 때 이러한 역학 관계를 기억하세요. 대형 업체일수록 더 많은 양보를 원할 것이며, 이는 더 쉽게 얻어낼 수 있습니다.

계약서를 작성할 때 신뢰가 정말 중요한 역할을 합니다. 법률 고문과 CISO, 규정 준수 책임자에게 충분한 가시성과 통제권을 부여하는 것은 어려운 일입니다. 하지만 더 큰 문제는 검증입니다: 써드파티 genAI 제공업체가 약속한 대로 작동하는지 확인하기 위해 운영 감사를 어떻게 할 수 있을까요?

더 무서운 것은 그들이 모든 요청에 동의하더라도 이러한 항목 중 일부는 어떻게 검증할 수 있을까요? 써드파티가 알고리즘을 훈련하는 데 데이터를 사용하지 않겠다고 약속했다면, 그렇게 하지 않을 것이라고 어떻게 확신할 수 있을까요?

이런 이유로 기업들은 소규모 업체를 인수하여 자체적으로 genAI 작업을 수행하는 것을 섣불리 포기해서는 안 됩니다. (자체 직원을 신뢰할 수 있는지는 논외로 하겠습니다. 믿는다고 가정해 봅시다.)

아카마이의 자문 CISO인 스티브 윈터필드는 머신러닝을 포함한 일반 AI와 LLM 및 genAI는 근본적으로 다르다고 강조합니다.

“직원들이 (일반) AI를 사용하는 것에 대해 걱정하지 않았지만 지금은 퍼블릭 AI에 대해 이야기하고 있습니다.”라고 윈터펠트는 말합니다. “학습 데이터베이스의 일부를 가져와서 다른 곳에 뱉어낼 수 있습니다. 무슨 일이 일어나고 있는지 감사할 수도 있나요? 영업팀의 누군가가 곧 발표될 신제품에 대한 이메일을 작성하고 싶어서 (genAI에) 도움을 요청한다고 가정해 봅시다. 아직 발표하지 않은 내용이 노출될 위험이 있습니다. Google의 DNA는 고객이 비즈니스 모델이라는 것입니다. 정보가 공유되지 않도록 하려면 어떻게 해야 하나요? 보여주세요.”

윈터펠드는 소규모 genAI 기업과 협상하는 것은 괜찮지만, 그 기업이 폐업하거나 Akamai의 경쟁사에 인수되는 등 미래가 걱정된다고 말합니다. “2년 후에도 그 기업이 존재할 수 있을까요?”

또 다른 주요 걱정거리는 사이버 보안입니다. 써드파티 기업이 데이터를 얼마나 잘 보호할 수 있을지, CISO가 자체 보안을 위해 genAI를 사용하기로 결정했다면 얼마나 잘 작동할 수 있을지 등입니다.

.

글로벌 컨설팅 기업 Wipro의 전략 총괄 매니저인 조시 조지는 “SOC는 AI 시스템에 대한 적대적 공격에 대한 가시성 부족으로 인해 완전히 사각지대에 놓이게 될 것”이라고 말합니다. “오늘날 SOC는 방화벽, 서버, 라우터, 엔드포인트, 게이트웨이 등 이벤트/로그 소스 역할을 하는 여러 유형의 IT 인프라에서 데이터를 수집하여 보안 분석 플랫폼에 쏟아 붓습니다. 클래식 및 genAI를 내장하는 최신 애플리케이션은 AI 시스템에 대한 지능형 공격을 일반 입력과 구분할 수 없으므로 평소와 같은 이벤트 로그를 생성하게 됩니다.

“이는 곧 이러한 시스템에서 이벤트 로그로 수집되는 정보가 공격이 임박했거나 진행 중임을 나타내는 가치가 없다는 것을 의미할 수 있습니다.”

라고 조지는 말합니다.

“지금은 AI 기업과 파트너 관계를 맺기에 위험한 시기입니다.”라고 AI 공급업체 Ensense의 공동 설립자 겸 CTO이자 오랜 AI 업계 베테랑인 마이클 크라우스(Michael Krause)는 말합니다. “많은 AI 기업이 이 물결에 편승하여 설립되었기 때문에 사실과 허구를 구분하기 어렵습니다.”

“업계가 성숙해지고 연막 및 거울 회사가 줄어들면서 이러한 상황은 바뀔 것입니다.”라고 크라우스는 말합니다. “많은 기업과 제품이 규정 준수를 증명하는 것을 사실상 불가능하게 만듭니다.”

크라우스는 genAI 프로젝트에 파트너로 참여하려는 기업 CISO를 위해 몇 가지 제안을 했습니다.

“공유 모델을 학습하거나 미세 조정하는 데 내부 데이터를 사용하지 않아야 하며, 데이터를 저장하거나 보관해서는 안 됩니다. 데이터 공유를 금지하고 액세스를 제어할 수 있는 별도의 환경을 구축하여 독점적으로 사용해야 합니다. 요청 또는 종료 시 모든 데이터와 환경을 종료하고 삭제하도록 요구합니다. 계약 체결 전과 종료 후 데이터 보안 감사에 동의합니다.”

주의해야 할 사항과 관련하여, Microsoft, 특히 Microsoft의 자금 지원을 받기는 하지만 CEO가 이사회를 해임할 수 있는 유일한 회사인 OpenAI는 12월 13일에 이용 약관을 업데이트하면서 많은 사람들의 이목을 집중시켰습니다. 새로운 이용 약관에서 OpenAI는 누군가가 회사 이메일 주소를 사용하는 경우 해당 계정이 자동으로 “조직의 비즈니스 계정에 추가될 수 있다”고 밝혔습니다. 이 경우 “조직의 관리자가 콘텐츠 액세스 권한을 포함하여 계정을 제어할 수 있습니다.”

.

사용할 무료 개인 계정을 찾거나 ChatGPT에 “이력서를 대신 작성해 줄 수 있나요?” 또는 “상사의 이메일 계정에 어떻게 침입하나요?”라는 질문을 하지 않도록 해야 합니다.

새 버전에서는 사용자가 자신의 데이터로 알고리즘을 학습시키는 OpenAI를 거부할 수 있습니다. 하지만 OpenAI는 이를 쉽게 처리하지 않아 사용자가 여러 단계를 거쳐야 합니다. 먼저 사용자에게 이 페이지로 이동하라는 메시지가 표시됩니다. 그러나 이 페이지에서는 옵트아웃을 허용하지 않습니다. 대신 이 페이지는 사용자에게 다른 페이지로 이동하라고 제안합니다. 이 페이지도 작동하지는 않지만 다른 URL을 가리키고 있으며 오른쪽 모서리에 신청 버튼이 있습니다. 그 다음에는 이메일 주소를 인증한 다음 요청을 검토하겠다고 말합니다.

수신거부를 막으려는 의도가 아닌가 하는 생각이 들 수도 있습니다. (업데이트: 업데이트가 게시된 직후 OpenAI가 악성 링크 중 하나를 제거했습니다.)

Evan Schuman은 자신이 인정하는 것보다 훨씬 더 오랫동안 IT 문제를 다뤄왔습니다. 리테일 기술 사이트인 StorefrontBacktalk의 창립 편집자인 그는 CBSNews.com, RetailWeek, Computerworld, eWeek의 칼럼니스트로 활동했습니다. 이메일([email protected])과 트위터(twitter.com/eschuman.

)를 통해 에반을 만날 수 있습니다.

Follow

저작권 © 2023 IDG Communications, Inc.

ChatGPT 습관을 버릴 때입니다

아마존에서 기술 제품 쇼핑하기

SHARE THIS POST