[뉴스스페이스=김정영 기자] 샘 올트먼이 운영하는 오픈AI는 라이브 스트리밍 이벤트를 통해 기존 AI 멀티모달(Multimodal·텍스트, 이미지, 오디오, 비디오) 거대언어모델(LLM)인 GPT4의 성능을 대폭 개선한 GPT-4o를 새롭게 출시했다.
GPT04o는 텍스트, 음성, 이미지를 각각 다른 모델이 아니라 하나의 통합된 모델이 처리한다. 기존 모델은 텍스트로만 대화가 가능했지만 새 모델은 음성 대 음성 대화와 이미지를 입력해 답변을 이미지로 받을 수 있다. GPT-4 터보에 비해 속도와 효율성이 두 배 향상됐고 한국어를 포함한 50개국어를 지원한다.
13일(현지시간) 오픈AI는 온라인으로 '스프링 업데이트' 행사를 열고 GPT-4o를 공개했다. 오픈AI가 새 모델을 선보이는 것은 지난해 11월 GPT-4 터보 이후 처음이다. GPT-4o는 챗GPT의 기반이 되는 모델로 이전 버전인 GPT-4에서 업그레이드된 것이며, 'o'는 모든 것을 뜻하는 '옴니(Omni)'에서 따왔다.
오픈AI는 GPT-4o에 음성으로 질문하면 이에 대한 반응 속도가 빠르면 232ms(밀리초·1000분의1초), 평균 320ms로 사람이 실제 대화할 때와 같은 수준을 구현할 수 있다고 설명했다. GPT-3.5는 평균 2.8초, GPT-4가 응답에 5.4초가 걸렸다.
오픈AI의 미라 무라티 최고기술책임자(CTO)는 "서로 다른 세 가지 모델이 함께 작동하면 시간에서 많은 지연이 발생하고 경험의 몰입도가 떨어지지만 음성, 텍스트와 이미지를 모두 추론하는 하나의 모델이 있으면 지연 시간을 줄이고 우리가 지금 하고 있는 것처럼 챗GPT와 상호작용할 수 있다"고 설명했다.
특히 오픈AI는 복잡한 기술 향상보다는 AI가 실제 우리 삶을 어떻게 바꿀 수 있을지 구현하는 데 집중했다. 사용 편의성을 극대화한 것. 실제 이날 오픈AI가 보여준 GPT-4o의 핵심 기능 중 하나는 지금까지 AI 음성 챗봇에는 없었던 사실적인 대화다. 사용자가 챗GPT에 말을 걸면 실시간으로 지연 없이 실시간 응답을 하는 식이다.
‘잠을 잘 자지 못하는 친구를 위해 잠자리 이야기를 들려달라’고 하자, 이 AI 모델은 다양한 목소리와 감정, 톤으로 바꿔가며 이야기를 들려줬다. 종이에 적힌 수학 방정식을 조언에 따라 단계별로 문제를 풀었고, 통역 기능도 제공했다. 발표를 맡은 미라 무라티 최고기술책임자(CTO)가 이탈리아어로 말을 걸면 영어로 변환한 다음 바로 영어로 응답을 받아 이탈리아어로 대화했다. 심지어 요청에 따라 이야기 일부를 노래하기도 했다.
무라티는 "상호작용과 사용 편의성에서 큰 도약을 이룬 것은 이번이 처음"이라며 "사람들이 챗GPT와 같은 도구와 협업하는 것이 실제로 가능하도록 만들었다"고 전했다. 그는 또 궁극적으로 사용자가 챗GPT와 화상채팅을 가능하게 하는 것이 목표라고 말했다.
외신은 GPT-4o가 AI 비서와 감정을 나누는 내용의 영화 '허(HER)'를 연상시킨다고 평가했다. 샘 올트먼 오픈AI 최고경영자(CEO)는 행사 후 자신의 소셜미디어(SNS) X에 'her'라는 단어를 올렸다. 올트먼은 오픈AI 블로그를 통해 GPT-4o가 "마치 영화에 나오는 AI처럼 느껴지고 이것이 실존한다는 사실이 여전히 놀랍다"며 "인간 수준의 반응 속도와 표현력을 갖추게 된 것은 큰 변화"라고 강조했다.
블룸버그통신은 "GPT-4o의 출시는 빠르게 진화하는 AI 환경에서 지각변동을 일으킬 것으로 예상된다"며 "GPT-4는 여전히 표준으로 자리 잡고 있다"고 평가했다.
새 모델은 50개 언어를 지원하도록 품질과 속도를 개선했다. 오픈AI는 ‘GPT-4o’ 모델이 기존 GPT-4 터보보다 두 배 더 빠르고 비용은 2분의 1 수준이라고 설명했다.
미라 무라티 CTO는 “챗GPT는 현재 1억명이 사용하는 AI 솔루션이며, 97%의 세계 시민을 사용하는 50개 언어로 제공된다”며 “이번에 추가된 15개 언어를 통해 더욱 많은 사람이 AI 기술을 활용할 수 있을 것”이라고 강조했다.
오픈AI는 무료 버전의 챗GPT3.5를 사용하는 사용자를 포함한 모든 사용자에게 GPT-4o를 사용할 수 있도록 했다. 유료 사용자(챗GPT4.0, 월 20달러)는 무료 이용자보다 5배 많은 질문을 할 수 있다. 오픈AI는 앞으로 몇 주에 걸쳐 사용자에게 GPT-4o 기능을 공개할 계획이다.
WSJ은 "오픈AI가 GPT-4o를 출시한 것은 오픈AI가 사용자 풀을 확장하고 AI를 통해 수익을 본격적으로 창출하기 위한 것"이라고 짚었다.
오픈AI는 이날 당초 예상됐던 검색 기능은 선보이지 않았지만 올트먼은 X를 통해 "곧 더 많은 내용을 공유할 수 있을 것"이라고 밝혔다. 이번 오픈AI의 행사는 구글의 개발자 연례 개발자 행사인 구글I/O 하루 전에 기습적으로 진행돼서 더욱 눈길을 끌었다.