오픈 AI 챗gpt 새 AI모델 GPT-4o 지피티-4오가 공개되었습니다. gpt4.0보다 더욱 강력하고 빨라진 성능으로 큰 화제를 모으고 있습니다. 실시간으로 인간처럼 상호작용을 하며 대화를 하고, 보고 듣고 공감할 수 있는 새 모델 gpt-4o에 대해 알아보겠습니다.
오픈 AI 챗gpt 새 AI모델
오픈AI가 음성 비서 기능을 강화한 새 멀티모달모델(LMM) ‘GPT-4o’를 공개했습니다. 마치 인간처럼 보고 듣고 말할 수 있는 새 모델입니다. 오픈AI는 13일(현지시간) 온라인으로 텍스트와 이미지, 오디오로 실시간 대화가 가능한 새로운 음성 어시스턴트 모델을 시연했습니다.
새 모델의 ‘o’는 모든 것이라는 ‘옴니(omni)’ 모든것을 아우른다는 뜻입니다. 이 모델은 향후 애플의 ‘시리’에 통합하는 데에도 사용될 것으로 보입니다. 현재 애플과 협상 중에 있습니다.
챗gpt 새로운 AI 모델은 인간과의 상호작용에서 기존 모델보다 더 빠르고 강력해졌다고 발표했습니다. 기존 유료 사용자들에게만 지원했던 음성 기능을 무료 사용자에게도 확대한다고 합니다.
챗gpt gpt4o 지피티-4오
챗gpt gpt4o는 말로 질문하면 최소 232밀리초, 평균 320밀리초 안에 오디오로 대답할 수 있습니다. 이는 사람의 반응 속도와 비슷한 것으로, 기존 ‘GPT-4.0’이 5.4초인 것과 비교하면 엄청나게 속도가 빨라졌습니다.
GPT-4o를 탑재한 휴대폰 두개가 상호 작용하는 모습도 보여줬습니다. 또 50개에 달하는 다국어 능력을 갖추고 있어, 거의 즉각적으로 다른 언어 번역이 가능합니다.
오픈 AI는 챗gpt gpt4o를 무료로 공개한다고 합니다. 물로 유료로 이용하면 5배 많은 사용량을 제공할 예정입니다.
새로운 모델은 이미지 처리 기능에서도 뛰어난 성능을 보여줬습니다. 종이에 적힌 수학 문제를 보여주고 답을 풀어내는 과정도 공개했습니다.
오픈AI는 GPT-4o가 ‘GPT-4 터보’보다 2배 더 빠르고 비용은 2분의 1 수준이라고 합니다.
기술적으로는 기존에 LMM을 구동하기 위해 텍스트와 이미지, 음성 부분을 따로 담당했는데, 모델 3개를 하나로 통합했다고 합니다.
챗gpt 새모델 지피티-4오
오픈 AI 측은 상호작용과 사용 편의성, 속도 측면에서 엄청난 발전이 있다고 발표했습니다. GPT-4o는 텍스트, 추론 및 코딩, 다국어와 오디오, 비전 기능에서 새로운 최고 수준을 달성했다고 했습니다.
인간 수준의 응답 시간과 공감력, 표현력을 갖추게 된 것이 가장 큰 변화라고 합니다. 영상에서는 카메라를 통해 사람의 표정을 인식하고 감정을 읽어내기도 했습니다.
오픈 AI 챗gpt 새로운 모델을 발표하며 또 한번 인공지능 분야에서 앞서나가고 있습니다. 최대 경쟁자인 구글 제미나이도 새로운 발표를 할 예정입니다.