본문 바로가기
AI시대가 온다

AI 언어 모델 총정리

by 알 수 없는 사용자 2023. 11. 29.
728x90

생성형 AI 언어 모델 총정리

 

 

GPT 제품군

AI 연구 및 배포 기업인 오픈AI(OpenAI)의 사명은 “인공 일반 지능(AGI)이 모든 인류에 혜택이 되도록 하는 것”이다. 물론 AGI에는 아직 도달하지 못했고, 머신러닝의 개척자인 메타-FAIR의 얀 르쿤 등 일부 AI 연구자는 AGI에 대한 오픈AI의 현재 접근 방식에는 답이 없다고 생각하기도 한다.
 
오픈AI는 GPT 언어 모델 제품군을 갖추고 있다. GPT 제품군 전체와 2018년 이후의 발전 과정을 간략하게 살펴보자. (참고로 GPT 제품군 전체는 구글의 트랜스포머 신경망 아키텍처를 기반으로 한다. 구글이 트랜스포머를 오픈소스로 공개했으므로 이는 합법적이다.)

GPT(생성형 사전 학습 트랜스포머)는 오픈AI가 2018년에 출시한 모델로, 약 1억 1,700만 개의 매개변수를 사용한다. GPT는 토론토 북 코퍼스를 사용해 사전 학습된 단방향 트랜스포머이며 인과적 언어 모델링(CLM) 목표에 따라, 즉 시퀀스의 다음 토큰을 예측하도록 학습됐다.
 
GPT-2는 2019년에 출시된 GPT 확장 모델로, 매개변수는 15억 개이며 최대 40GB의 텍스트 데이터를 포함한 800만 개의 웹페이지 데이터 집합을 사용해 학습됐다. 오픈AI는 GPT-2가 “너무 뛰어나고” “가짜 뉴스”로 이어질 수 있다는 이유에서 원래는 GPT-2에 대한 접근을 제한했다. 이 조치는 나중에 철회됐지만, GPT-3가 출시되면서 사회적 문제가 생길 가능성이 더 커졌다. 
 
GPT-3는 2020년에 나온 자동 회귀 언어 모델로, 1,750억 개의 매개변수를 사용하며 필터링된 버전의 커먼 크롤과 웹텍스트2(WebText2), 북1(Books1), 북2(Books2), 영어 위키피디아의 조합으로 학습됐다. GPT-3에 사용된 신경망은 GPT-2와 비슷하지만 몇 개의 추가 블록이 있다.

 


 
GPT-3의 가장 큰 단점은 환각, 즉 명확한 근거 없이 사실을 지어내는 경향이다. GPT-3.5와 GPT-4에도 정도는 덜하지만 같은 문제가 있다.
 
코덱스(CODEX)는 2021년 GPT-3에서 파생된 모델로 코드 생성을 위해 5,400만 개의 오픈소스 깃허브 리포지토리로 미세 조정됐다. 깃허브 코파일럿(Copilot)에 사용되는 모델이다.
 
GPT-3.5는 GPT-3와 코덱스의 2022년 업데이트 집합이다. gpt-3.5-turbo 모델은 채팅에 최적화됐지만 기존의 완성 작업에서도 잘 작동한다.
 
GPT-4는 오픈AI의 주장으로는 일부 전문 및 학술 벤치마크에서 인간 수준의 성능을 발휘하는 2023년 대규모 멀티모달 모델(이미지와 텍스트 입력을 받아서 텍스트 출력을 생성)이다. GPT-4는 미국 변호사 시험, LSAT, GRE 및 여러 AP 주제 시험을 포함한 다양한 시뮬레이션 시험에서 GPT-3.5를 앞섰다.
 
참고로 시간이 지나면서 GPT-3.5와 GPT-4의 성능도 바뀌었다. 2023년 7월 스탠포드 대학 논문에 따르면 2023년 3월부터 2023년 6월 사이에 소수 식별을 포함한 여러 작업에서 모델의 동작이 크게 바뀌었다.

 

 

GPT-4 모델 편향성 우려

GPT-4의 학습 방법을 오픈AI가 설명하지 않은 것은 심각한 우려 사항이다.

 

오픈AI 측이 내세우는 이유는 경쟁이다. 마이크로소프트(현재까지 오픈AI에 130억 달러의 자금을 투자함)와 구글 간의 경쟁을 감안하면 어느 정도 납득은 되는 이유다. 그러나 학습 말뭉치의 편향성에 대해 알지 못한다는 것은 모델의 편향성에 대해 알지 못한다는 것을 의미한다.

 

에밀리 벤더는 2023년 3월 16일 마스토돈에 게시한 GPT-4에 대한 글에서 “#오픈AI가 학습 데이터, 모델 아키텍처 등에 대한 정보를 *공개*하기 전까지 GPT-4는 독성 쓰레기로 간주해야 한다”라고 말했다.
 

 


챗GPT와 빙GPT는 원래 gpt-3.5-turbo 기반의 챗봇이었지만 2023년 3월에 GPT-4를 사용하도록 업그레이드됐다. 현재 GPT-4 기반의 챗봇 버전에 액세스하려면 챗GPT 플러스에 가입해야 한다. GPT-3.5 기반의 표준 챗GPT는 2021년 9월까지의 데이터로만 학습됐다.
 
빙GPT는 “더 뉴 빙”이라고도 하며, 마이크로소프트 엣지 브라우저에서 액세스할 수 있다. 마찬가지로 2021년까지의 데이터로 학습됐다. 이에 대해 빙GPT에 직접 물어보면 지속적으로 학습하면서 웹의 새로운 정보로 지식을 업데이트하고 있다고 주장한다.

 

람다(LaMDA)

구글이 2021년에 발표한 “획기적인” 대화 기술인 람다(대화 애플리케이션을 위한 언어 모델)는 트랜스포머 기반 언어 모델로, 대화를 통해 학습되며 응답의 분별력과 구체성을 대폭 개선하도록 미세 조정됐다. 람다의 강점은 사람의 대화에서 흔히 발생하는 주제 표류에 대처할 수 있다는 것이다.

팜(PaLM)

팜(패스웨이 언어 모델)은 구글 리서치가 2022년에 발표한 고밀도 디코더 전용 트랜스포머 모델로 매개변수 수는 5,400억 개이며 패스웨이(Pathways) 시스템을 사용해 학습됐다. 팜은 고품질의 웹 문서와 서적, 위키피디아, 대화, 깃허브 코드를 포함한 여러 영어 및 다국어 데이터 집합의 조합을 사용해 학습됐다. 

또한 구글은 모든 공백(특히 코드에 중요)을 보존하고, 어휘 목록에서 벗어난 유니코드 문자를 바이트로 분할하고, 숫자를 각 자릿수당 하나의 개별 토큰으로 분할하는 “무손실” 어휘 목록도 만들었다.
팜-코더(PaLM-Coder)는 파이썬 전용 데이터 집합으로 미세 조정된 팜 540B 버전이다.

팜-E(PaLM-E)

팜-E는 구글이 로봇공학용으로 2023년에 구체화한 멀티모달 언어 모델이다. 연구진은 팜을 가져와서 로봇 에이전트의 센서 데이터로 보완하여 “구체화(팜-E의 ‘E’는 구체화를 의미)”했다. 또한 팜-E는 팜 외에 ViT 22B 비전 모델도 채택했으므로 일반적인 기능의 비전 및 언어 모델이기도 하다.

 

바드(Bard)

바드는 구글이 2023년 출시한 람다 기반의 구글 대화형 AI 서비스다. 2023년 3월 21일에 출시된 후 2023년 5월 10일에 일반에 공개됐다. 바드는 출시 이후 여러 번 업데이트됐다. 2023년 4월에는 20개의 프로그래밍 언어로 코드를 생성하는 기능이 추가됐고, 2023년 7월에는 40가지 인간 언어 입력에 대한 지원과 함께 구글 렌즈가 통합되고 40개 이상의 언어를 사용한 텍스트-투-스피치 기능이 추가됐다.

 

라마(LLaMA)

라마(대규모 언어 모델 메타 AI)는 650억 매개변수를 사용하는 “원시” 대규모 언어 모델로, 메타 AI(전 메타-FAIR)가 2023년 2월에 출시했다. 라마에 대한 메타의 설명은 다음과 같다.
 
대규모 언어 모델 분야에서는 라마와 같은 비교적 작은 기반 모델을 학습시키는 것이 바람직하다. 훨씬 더 적은 컴퓨팅 성능과 리소스만으로 새 접근 방식을 테스트하고 다른 사람들의 작업을 검증하고 새로운 사용 사례를 탐색할 수 있기 때문이다. 기반 모델은 레이블 없는 대량의 데이터 집합으로 학습되므로 다양한 작업을 위한 미세 조정에 이상적이다.
 
라마는 여러 크기로 출시됐으며 어떻게 구축되었는지에 대한 자세한 내용이 담긴 모델 카드가 제공된다. 메타 AI의 얀 르쿤에 따르면 원래는 체크포인트와 토크나이저를 요청해야 했지만, 정식으로 요청을 제출해서 모델을 받은 누군가가 4채널 사이트에 다운로드 가능한 토렌트를 게시한 덕분에 지금은 쉽게 구할 수 있다.

라마 2(Llama 2)

라마 2는 차세대 메타 AI 대규모 언어 모델로, 2023년 1월부터 7월 사이에 라마 1에 비해 40% 더 많은 데이터로 학습됐으며(공개적으로 사용 가능한 소스에서 2조 개의 토큰 사용), 컨텍스트 길이는 2배 더 긴 4096이다. 라마 2는 매개변수 70억 개, 130억 개, 700억 개의 여러 크기로 제공되고 사전 학습 및 미세 조정된 변형도 있다. 메타 AI는 라마 2가 오픈소스라고 주장하지만 허용되는 사용에 대한 제약이 포함됐다는 이유로 이 주장에 동의하지 않는 사람들도 있다. 커뮤니티 라이선스 외에 상용 라이선스도 제공된다.
 
라마 2는 최적화된 트랜스포머 아키텍처를 사용하는 자동 회귀 언어 모델이다. 조정된 버전은 지도 미세 조정(SFT)과 인간 피드백을 통한 강화 학습(RLHF)을 사용해서 유용성과 안전성에 대한 인간의 선호도에 맞게 조정된다. 라마 2는 현재 영어 전용이다. 모델 카드에는 벤치마크 결과와 탄소 발자국 통계가 포함돼 있다. 연구 논문 ‘라마 2: 개방형 기반과 미세 조정된 채팅 모델’에서 더 자세한 내용을 볼 수 있다.

 

클로드 2(Claude 2)

2023년 7월에 출시된 앤트로픽(Anthropic)의 클로드 2는 단일 프롬프트에서 최대 10만 개의 토큰(약 7만 단어)을 수락하며, 수천 토큰의 스토리를 생성할 수 있다. 클로드는 구조적 데이터를 편집, 재작성, 요약, 분류, 추출할 수 있으며 내용을 기반으로 한 Q&A와 그 외의 다양한 작업이 가능하다. 대부분의 학습은 영어로 이뤄졌지만 다른 여러 일반적인 언어에서도 잘 작동하며, 일반적이지 않은 언어로도 어느 정도의 커뮤니케이션이 가능하다. 프로그래밍 언어에 대한 지식도 방대하다.

 


 
클로드는 유용하고 정직하고 무해한(Helpful, Honest, Harmless, HHH) 모델로 학습됐으며 무해함을 강화하고 프롬프트를 통해 공격적이거나 위험한 출력을 생성하기가 더 어렵게 하기 위한 광범위한 레드 팀 과정을 거쳤다. 사용자의 개인 데이터를 학습에 사용하거나 인터넷에서 답을 참조하지 않지만, 사용자가 직접 클로드에 인터넷의 텍스트를 제공해서 그 내용으로 작업을 수행하도록 요청할 수는 있다. 클로드는 미국 및 영국 사용자에게 무료 베타 버전으로 제공되며, 생성형 AI 플랫폼인 재스퍼(Jasper), 코드 AI 플랫폼인 소스그래프 코디(Sourcegraph Cody), 아마존 베드록(Amazon Bedrock)과 같은 상업적 협력업체 채택됐다.


 

살펴본 바와 같이 대규모 언어 모델은 여러 기업에서 활발하게 개발되는 중이며 오픈AI와 구글 AI, 메타 AI, 앤트로픽에서 거의 매달 새로운 버전이 나오고 있다. 이러한 LLM 중에서 진정한 인공 일반 지능(AGI)을 달성한 모델은 없지만 새 모델이 나올 때마다 대체로 지난 모델에 비해 개선되는 중이다. 다만 대부분의 LLM에서 환각을 비롯한 비정상적인 현상이 자주 발생하며, 경우에 따라 사용자 프롬프트에 대해 부정확하고 편향되거나 불쾌한 응답을 생산하기도 한다. 결국 출력이 정확함을 검증할 수 있는 경우에 한해서만 LLM을 사용해야 한다.

 

 

 

1천년 묵은 멕시코 외계인(이라는 사기)

1천년 묵은 '외계인 시신'?…멕시코 의회서도 UFO 청문회 멕시코 의회 청문회에 등장한 '비(非)인간 존재'(?) 멕시코 의회가 외계 생명체 대한 청문회를 12일(현지시간) 열었다. 언론인이자 오랫동

phillipoh.tistory.com

 

세계 과학계, 초전도체 'LK-99' 검증 러시

세계 과학계, 초전도체 'LK-99' 검증 러시... 초기 결과는 긍정적 상온·상압 환경에서의 초전도성 물질 구현을 한국의 한 민간 연구소가 해냈단 소식에 전 세계가 발칵 뒤집혔다. 한국 뿐만 아니라

phillipoh.tistory.com

 

인공지능 반도체 회사 AMD

지금 이글을 쓰면서 데스크탑을 한대 더 맞추고 싶은데 인텔로 가야하나 AMD로 가야하나 고민한다. 우리게는 매우 친숙한 하드웨어를 제공해주는 회사이면서 생소하기도 한 회사다. 최근 몇 년

phillipoh.tistory.com

 

의사·한의사 AI 대체될 위험 가장 크다

고학력·고소득일수록 더 영향 디자이너로써 AI생성 프롬프트, 미드저니와 같은 인공지능이 반갑지 않았다. 나의 직접 윤리가 무너지는 그런 것. 나이가 들고 고소득에서 점점 저소득으로 바뀌

phillipoh.tistory.com

 

반응형