본문 바로가기
AI시대가 온다

오픈 AI, GPT-4 출시! 챗GPT 차이

by Memepro 2023. 3. 16.
728x90

오픈 AI, GPT-4 출시! 챗GPT와 차이 

사용법 및 기능 소개 인공지능 챗봇인 챗GPT 열풍을 일으킨 오픈AI가 챗GPT 적용된 초거대 인공지능(AI) 언어 모델(LLM) ‘GPT-3.5’를 넘어서는 차세대 모델 ‘GPT-4’를 출시했습니다. 챗GPT에 적용된 GPT-3.5의 업그레이드 버전이자 GPT-3.5와 비교해 AI 언어 생성 능력이 15% 개선됐습니다. 신뢰성이나 창의성 등이 전반적으로 향상됐습니다.

 

 

오픈AI, 인간 수준의 능력 ‘GPT -4’ 출시

14일(현지시간)오픈AI는 GPT-4를 전격 공개했습니다. 오픈AI는 GPT-4를 공개하면서 많은 전문적인 시험에서 GPT-4가 인간 수준의 능력을 보여줬다고 설명했습니다. 샘 알트만 오픈AI 최고경영자(CEO)는 트위터에서 “GPT-4는 가장 뛰어나고 정리가 잘 된 모델”이라며 홍보하기도 했습니다.

 

GPT-4는 전 세계적으로 인기를 끌고 있는 챗GPT에 적용된 GPT-3.5의 업그레이드 버전입니다.

오픈AI는 GPT-4 모델이 많은 전문적인 시험에서 “인간 수준의 능력을 보여줬다”고 설명했습니다.

 

오픈AI에 따르면, GPT-4 모델은 미국 모의 변호사 시험에서 90번째, 대학 입학 자격시험인 SAT 읽기와 수학시험에서는 각각 93번째와 89번째의 백분위수를 기록했습니다. 이는 상위 10% 수준의 성적입니다.전 버전인 GPT-3.5는 하위 30% 성적을 받은 바 있습니다.

이들은 “많은 전문적인 시험에서 인간 수준의 능력을 보이고 있다”라고 자평했습니다.

 

오픈AI는 “평소 대화에서는 GPT-3.5와 차이가 크게 나지 않을 수 있다”면서도 “GPT-4는 훨씬 더 신뢰할 수 있고 창의적이며 더 미묘한 명령을 처리할 수 있다”라고 평가했습니다. 또 “이전 모델보다 틀린 답이나 주제를 벗어난 답은 적다며 많은 표준화된 시험에서 인간보다 더 좋은 성적을 낼 것”이라고 했습니다.

 

이들에 따르면, GPT-4는 허용되지 않은 콘텐츠 요청에 응답할 가능성은 82% 줄었고 사실을 바탕으로 답하는 영역은 전작보다 40% 좋아졌습니다. 기존 GPT-3.5와 달리 이미지도 텍스트로 인식합니다. 이미지를 보고 이해한 뒤 답변하는 것입니다.

 

GPT-4,  챗GPT 3.5와 비교는?

 

멀티모달 모델

GPT-4는 기존 챗GPT에 쓰이던 GPT-3.5와 달리 여러 데이터 형태를 인식하는 멀티모달 모델로 출시됐습니다. 앞서 언급한 듯이 GPT-3.5와 달리 이미지도 텍스트로 인식합니다. 이제 프롬프트(제시어)에서 기존 텍스트뿐 아니라 이미지 인식도 지원, 원하는 답변을 위해 텍스트와 이미지를 함께 입력할 수도 있습니다. 하지만 그 결과물은 마찬가지로 텍스트로만 출력됩니다.

이미지 입력 기능은 아직 리서치 프리뷰라 사용이 제한됐으며, 세간의 예측과 달리 비디오는 포함되지 않았습니다.

 

영어 외 언어에 대한 지원이 강화

또 다른 차이점은 영어 외 언어에 대한 지원이 강화된 점입니다. 오픈AI가 MS(마이크로소프트) 애저 번역을 활용한 MMLU(대규모다중작업언어이해) 벤치마크 번역 테스트를 실시한 결과, GPT-4는 전세계 26개 언어 중 한국어를 포함한 24개 언어에서 높은 성능을 보였습니다. GPT-4는  77.0%을 받았으며 GPT-3.5의 70.1%보다 높은 수치입니다.

기존 GPT-3.5뿐 아니라 구글 팜(PaLM)과 딥마인드 친칠라(Chinchilla) 등 경쟁사 LLM에 대해서도 우위를 보였다는 설명입니다.

 

성능 대폭 개선 예상

오픈 AI 측이 GPT-4의 구체적인 파라미터(매개변수) 수는 공개되지 않았습니다. 다만, 전문가들은 GPT-4에 사람 뇌의 시냅스에 해당하는 파라미터(매개변수) 수가 100조개에 달하는 것으로 추산하고 있습니다. GPT-3.5에 적용된 파라미터 수가 1750억개인 것에 비하면 성능이 대폭 개선된 셈입니다.

오픈 AI는 안전과 경쟁사와의 문제 등을 고려해 언어모델에 사용된 하드웨어와 모델 훈련 대상 데이터 등 기술과 관련한 세부 사항은 공개하지 않겠다고 밝혔습니다.

 

GPT-4의 기능

 

1.대용량 텍스트도 처리 가능

이번 새로운 출시한 GPT-4 는 대용량 텍스트도 처리할 수 있습니다. 블로그 내용에 따르면 GPT-4는 영어 기준 2만 단어 이상을 한번에 기억하고 이해할 수 있습니다. 영어 기준으로 2만 단어는 A4용지 약 5장 넘는 분량이다. 이전보다 문맥을 더 잘 이해할 수 있다는 의미입니다.

 

이는 GPT-4가 현재 더 강한 ‘기억력’을 가지고 있다는 것을 의미합니다.테크크런치(TechCrunch)는 GPT-4가 더 오랜 시간 사용자와 대화할 수 있고, 토론 주제에서 벗어나지 않고 보다 정확한 답변을 제공하며 과거 챗봇이 부진했던 큰 문제점으로, 초기 요구 사항과 설정이 일정 시간의 대화 후에 나중에 정보가 덮이기 때문이라고 지적했습니다.

 

2.텍스트 입력 기능

멀티 모달의 경우 비디오 생성이 가능할 것이라는 예측과는 달리, 현재는 이미지와 텍스트 입력을 받아들이고 텍스트로 대답을 출력합니다. 예를 들어 사용자가 곰팡이 핀 피자 사진을 입력하고 “피자 맛있겠지?”라고 GPT-4에 물어보면 “곰팡이 있는 피자는 건강에 해롭습니다”라는 반응을 얻을 수 있습니다. 이번 모델은 단순히 문자나 이미지를 받아들이는 것보다 사람처럼 완전히 이해할 수 있습니다.

 

오픈AI는 지난 2년 동안 전체 딥 러닝 스택을 재구축했으며 MS 애저를 이용해 슈퍼컴퓨터를 공동 설계했다고 전했습니다. 그 결과 1년 전 첫 번째 테스트로 GPT-3.5를 교육했으며, 버그를 찾아 수정하고 이론적 기반을 개선했다고 설명했습니다.

 

오픈AI는 챗GPT 및 API(대기자 명단)를 통해 GPT-4의 텍스트 입력 기능을 출시한다고 밝혔습니다. 멀티 모달의 광범위한 이미지 입력 ​​기능을 준비하기 위해 ‘비 마이 아이즈’라는 이미지-텍스트 생성 업체와 협력하고 있다고 전했습니다. 또 AI 모델 성능의 자동 평가를 위한 프레임워크인 ‘오픈AI 에벌즈(Evals)’를 오픈 소싱, 누구나 모델의 단점을 보고해 추가 개선을 안내할 수 있도록 했습니다.

 

3.웹 페이지 생성

GPT-4는 또한 대부분의 주류 프로그래밍 언어를 이해하고 프로그램 작성 보조 조수 역할을 할 수 있으며 사전 이미지 인식 기능과 결합할 수 있습니다. 그렉 브록먼 오픈AI 사장은 온라인 시연에서 손으로 그린 모형 사진을 찍고 이를 기반으로 실제 웹사이트를 만들 수 있음을 보여줬습니다.

 

4.뛰어난 추리 능력

이와 함께 GPT-4는 챗 GPT보다 뛰어난 추리 능력을 자랑했습니다.

예를 들어 시연에서는 여러 참가자의 일정에 따라 모두가 자유로운 시간에 회의를 주선할 수 있으며 심지어 고난도 문과와 이과에도 참여할 수 있습니다.또 GPT-4로 개인이 세금을 계산하는 시연도 선보였습니다.

 

GPT-4 사용하려면?

오픈AI는 이 멀티모달 버전을 챗GPT플러스 이용자들에게 우선 개방할 방침입니다.현재 매달 20달러(약 2만5천원)를 내고 챗GPT를 활용하는 이용자들은 새 버전을 쓸 수 있습니다. 개발자는 대기자 명단 접수를 통해 API를 제공받을 수 있습니다.

또한 오픈 AI는 750단어 텍스트 프롬프트에 0.03달러, 750단어 응답에 0.06달러를 부과합니다.

 

GPT-4의 한계는?

오픈AI에 따르면 텍스트 생성AI들이 꾸준히 지적받는 할루시네이션(거짓말) 문제에 대해 GPT-4가 내부 평가에서 GPT-3.5보다 40% 높은 점수를 받았습니다. 허용되지 않는 콘텐츠 요청에 대한 응답 경향도 82% 줄였습니다.

 

다만 회사는 챗GPT가 여전히 엉뚱한 대답을 할 수는 있다고 했습니다. GPT-4 역시 학습데이터 문제로 2021년 9월 이후 발생한 일에 대해서는 정보가 부족하다는 점은 이전과 마찬가지기도 합니다.

 

오픈AI는 “여전히 우리가 해결하기 위해 노력하고 있는 많은 한계가 있다”면서 “새로운 소프트웨어는 아직 완벽하지 않으며 많은 시나리오에서 인간보다 능력이 떨어진다. 여전히 ‘환상’을 갖고 답을 지어내며 틀렸을 때에도 옳다고 주장하는 경향도 있다”라고 말했습니다.

 

국내 AI 스타트업 업스테이지의 김성훈 대표는 GPT-4에 대해 “다양한 ‘성격’을 가지고 있다”면서 “사용자는 ‘고정된 장황함’, 어조, 스타일이 있는 고전적인 챗GPT 성격’을 자신의 필요에 더 적합한 것으로 변경할 수 있다”라고 말했다. 이외 챗 GPT에 대해 “(이제는) 이미지를 보고 이해할 수 있고, 더 많은 데이터 학습으로 속이기 어려워졌다”며 “한국어도 더 잘하게 될 것”이라 평가했습니다.

또한  GPT-4 역시 이전 버전과 마찬가지로 허위 정보를 구분하지 못하는 한계를 가진 것으로 평가됐습니다.

 

GPT-3.5가 탑재된 챗GPT 역시 허위사실을 사실인 것처럼 전달해 가짜정보 확산 창구가 될 수 있다는 지적이 제기된 바 있습니다.이들은 “GPT-4가 편견이 담긴 혐오 발언 등 해로운 콘텐츠를 생성할 수 있고 화학 무기 개발 등 불법 행위에 필요한 정보 등을 제공할 수 있다”며 우려를 표했습니다.

 

이에 대해 오픈 AI 측은 GPT-4가 인간의 개입 없이 자유의지로 행동할 수 있는지와 관련해서는 “AI가 자율적으로 움직일 수 있는지 테스트를 했으나 아직까지는 그렇게 할 수 없을 것으로 보인다”고 밝혔습니다.

 

GPT-4 , 이미 기업에서 채택

외신과 전문가들은 GPT-4 출시가 치열해지고 있는 빅테크(거대 기술기업) 간의 AI 경쟁을 격화시키고, 동시에 현재 MS가 쥐고있는 주도권을 더욱 공고히하는 결과로 이어질 것이라고 관측했다.

뉴욕타임스(NYT)는 “새로운 AI기술은 AI 기술을 접목하고 기술 산업의 차세대 리더를 결정하기 위한 실리콘밸리 경쟁의 판돈을 높일 것”이라고 전망했다. 또한 리시 잘루리아 RBC 캐피탈마켓 분석가는 “MS가 GPT-4 채택으로 큰 이득을 볼 것”이라고 밝혔다.

 

한편 김성훈 대표는 이날 업스테이지가 개발한 ‘눈 달린 챗GPT’ 아숙업(AskUp)에 GPT-4를 접목할 예정이라 밝혔다. 지난 6일 카카오톡을 통해 공개된 아숙업은 업스테이지 OCR 기술과 챗GPT를 결합한 챗봇이다. 사용자가 텍스트로 작성된 문서나 손글씨 이미지 등을 아숙업에 보내면 번역된 내용과 함께 답변을 받을 수 있다. 학습 자료, 사업자 등록증, 계약서 등 다양한 서류도 아숙업에 질문하면 필요한 정보를 얻거나 텍스트로 처리도 가능한 게 특징이다.

 

MS,  새 빙(Bing)에 GPT-4 탑재

마이크로소프트(MS)는 이날 새로운 검색 엔진 빙(Bing)에GPT-4를 탑재한다고 밝혔다. 

 

오픈AI는 GPT-4 모델을 학습시키기 위해 MS의 클라우드 서비스 애저를 활용했다. MS는 2019년부터 오픈AI에 대한 투자를 단행해왔으며, 올해 초 100억 달러(약 13조 원) 규모로 추정되는 투자를 발표했다.

마이크로소프트와 구글이 글로벌 시장에서 생성형 AI를 두고 경쟁하고 있다는 점에서 이번 GPT-4 모델의 출시는 마이크로소프트에게 의미있는 일이다.실제 전문가들도 GPT-4 모델로 마이크로소프트가 시장 우위를 점할 수 있다는 전망을 내놓고 있다.

리시 잘루리아 RBC 캐피탈마켓 애널리스트는 “마이크로소프트가 GPT-4 채택으로 큰 이득을 얻을 수 있다”고 밝혔다.

 

 

 

챗GPT 골프연습 패러다임 바꾼다

챗GPT 골프연습 패러다임 바꾼다 챗GPT를 통한 AI 기술의 대중화가 시작되면서 골프에도 이를 적용할 수 있는 방법은 없는지에 대한 관심이 높아지고 있다. 최근 전 세계적으로 ‘챗GPT’를 필두로

phillipoh.tistory.com

 

오픈 AI, 기업용 챗GPT 엔터프라이즈 출시

최근 보안강화를 통해 기업용 데이터의 외부 유출을 막는 ‘기업용 챗GPT’가 등장했다. 미국의 IT기업 오픈AI가 기업용 챗GPT인 챗GPT 엔터프라이즈(ChatGPT Enterprise)를 출시한 것이다. 기존 챗GPT보

phillipoh.tistory.com

 

인공지능 반도체 회사 AMD

지금 이글을 쓰면서 데스크탑을 한대 더 맞추고 싶은데 인텔로 가야하나 AMD로 가야하나 고민한다. 우리게는 매우 친숙한 하드웨어를 제공해주는 회사이면서 생소하기도 한 회사다. 최근 몇 년

phillipoh.tistory.com

 

반응형