Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

AI 언어 모델 축소, 더 작은 모델이 더 나은 이유

테스트중Alt
출처 : Computerworld

AI 언어 모델은 축소되어야 합니다. 더 작을수록 좋은 이유

대규모 언어 모델(LLM)이 가장 강력한 것으로 여겨지는 경우가 많지만, 조직은 큰 것이 항상 좋은 것은 아니라는 사실을 깨닫고 있습니다. 생성형 인공 지능(genAI) 도구의 도입이 증가하고 있으며, 조직들은 향후 1년 반 동안 AI 이니셔티브에 더 많은 투자를 계획하고 있습니다.

genAI 도구를 일찍 도입한 기업들은 혁신, 지속 가능성, 고객 및 직원 유지에 상당한 효과를 경험했습니다. 그러나 더 많은 컴퓨팅 주기를 필요로 하고 서버 용량에 부담을 주기 때문에 LLM의 확장성은 과제가 되고 있습니다.

특정 사용 사례를 위한 소형 모델

전문가들은 더 많은 데이터로 학습된 더 작은 규모의 도메인별 모델이 오늘날의 주요 LLM의 지배력에 도전할 수 있다고 주장합니다. 이러한 소규모 모델은 특정 사용 사례에 맞게 더 쉽게 학습할 수 있으며, 보다 정확하고 맞춤화된 결과를 제공합니다.

모든 규모의 LLM은 신속한 엔지니어링을 통해 모델에 쿼리와 응답을 입력하여 학습되지만, 더 많은 데이터를 수집하면 부정확하고 잘못된 결과물이 나올 가능성이 높아질 수 있다는 우려가 있습니다. 결함이 있는 정보는 눈에 띄는 실수나 기이한 응답 등 잘못된 결과로 이어질 수 있습니다.

도전 과제와 대안

OpenAI의 GPT 4나 Meta AI의 LLaMA 2와 같은 대규모 범용 LLM은 수직 산업이나 특수한 용도로 사용하기에 충분히 정확하지 않거나 구체적이지 않을 수 있습니다. 또한 이러한 대규모 LLM의 개발 및 유지보수에는 상당한 리소스가 필요하므로 소수의 지배적인 플레이어에게 힘이 집중됩니다.

그러나 스타트업이 시장에 진입하여 업종별 LLM을 만들거나 고객을 위해 모델을 미세 조정하고 있습니다. 선별된 데이터로 학습된 이러한 소규모 모델은 대형 LLM의 성능에 근접하는 유망한 결과를 보여주었습니다.

우려 사항 및 고려 사항

소수의 지배적인 플레이어에게 LLM 성능이 집중되는 것에 대한 우려와 증가하는 모델 크기를 따라잡기 위해 GPU 칩을 확장하는 데 따르는 어려움이 있습니다. 개인 정보 보호, 보안 및 저작권 침해 문제도 클라우드 기반 LLM에 여전히 남아 있습니다.

이러한 우려에도 불구하고 기업들은 genAI를 실험하고 이를 전략에 통합하고 있습니다. 또한 엔터프라이즈 데이터를 사용하여 자체 LLM을 구축하거나 마켓플레이스에서 제공되는 소규모 모델을 활용하는 등 대안을 모색하고 있습니다.

결론적으로, 대규모 LLM도 장점이 있지만, 특정 사용 사례에 더 적합한 소규모 맞춤형 모델이 더 나은 결과를 제공할 수 있다는 인식이 확산되고 있습니다. AI 업계에서는 지식 향상 팩, 프롬프트 라이브러리, 큐레이팅된 데이터로 학습된 소규모 도메인별 모델로의 전환을 목격하고 있습니다.

SHARE THIS POST