본문 바로가기
Wellness

OpenAI GPT-4o 출시 - 알아야 할 5가지 새로운 기능

by 라이브헬시365 2024. 5. 14.

ChatGPT 개발자들은 이번 주 OpenAI 봄 업데이트에서 몇 가지 새로운 업그레이드를 선보였습니다.

사람처럼 자연스러운 음성과 구글 렌즈와 같은 시각 기능까지, 놀랍도록 빠른 라이브 데모 시리즈에서 인상적인 기능들이 많이 공개되었습니다.

이번 주에는 새로운 아이패드 프로 2024와 아이패드 에어 2024가 출시되는 등 많은 일이 있었기 때문에 OpenAI가 발표한 기능 중 일부를 놓치셨을 수도 있습니다. 놓치셨을지도 모르는 ChatGPT의 주요 업데이트 5가지를 알아보세요.

GPT-4o

새로운 모델이 등장했는데, OpenAI는 이를 GPT-4o라고 부릅니다. 이것은 ChatGPT-5는 아니지만 OpenAI의 기존 모델에 대한 중요한 업데이트입니다.

OpenAI 봄 업데이트에서 CTO 미라 무라티는 GPT-4o 모델이 음성, 텍스트, 시각을 아우르는 추론이 가능하다고 말했습니다. 이 옴니모델은 현재 ChatGPT-4보다 훨씬 빠르고 효율적일 것으로 예상됩니다.

일부 라이브 데모에 따르면 시스템은 특히 대화형 음성 모드에서 확실히 빠른 속도로 움직이는 것처럼 보였지만, 이에 대한 자세한 내용은 아래에서 확인할 수 있습니다.

모두에게 무료

GPT-4o는 월 20달러의 프리미엄 플러스 서비스에 종속되지 않습니다. 실제로 OpenAI는 모든 사용자가 GPT-4o를 사용할 수 있도록 하고 있습니다.

GPT-4o는 기본 도구와 업데이트 외에도 사용자에게 무료로 제공되는 다른 도구도 제공합니다. 여기에는 사용자 지정 챗봇과 사용자가 구축한 모델과 도구가 있는 ChatGPT 스토어에 대한 액세스가 포함됩니다.

무료 사용자에게는 고급 데이터 분석 도구, 비전(또는 이미지 분석), 이전 대화를 기억할 수 있는 메모리에도 액세스할 수 있습니다.

이제 유료 사용자는 무엇을 얻게 되나요? OpenAI에 따르면 유료 사용자는 무료 사용자에 비해 최대 5배의 용량과 쿼리를 계속 사용할 수 있습니다.

반응형

대화형 연설

OpenAI의 라이브 데모에서 가장 흥미로웠던 부분은 ChatGPT와의 음성 대화였습니다.

새로운 음성 어시스턴트는 실시간 대화가 가능하며, 사용자가 어시스턴트를 방해하거나 어조를 바꾸도록 요청하고 사용자의 감정에 반응하도록 할 수 있는 기능이 포함되어 있습니다.

라이브 데모에서 OpenAI 발표자는 음성 어시스턴트에게 취침 시간 이야기를 만들어 달라고 요청했습니다. 데모를 통해 자연스러울 뿐만 아니라 드라마틱하고 감정적으로 들려주는 능력을 보여주도록 했습니다. 또한 음성 어시스턴트가 로봇처럼 들리고, 노래를 부르고, 더 강렬하게 이야기를 전달하도록 했습니다.

모두 매우 인상적이었습니다.

실시간 번역 도구

표시된 음성 비서 기능 중 많은 부분이 인상적이었지만 라이브 번역 도구는 정말 한 단계 더 발전한 것 같았습니다.

데모 도중 무라티는 음성 어시스턴트에게 이탈리아어로 말을 걸었습니다. 마크 첸은 어시스턴트에게 영어를 이탈리아어로, 이탈리아어를 영어로 번역해 달라고 요청했습니다. 꽤 잘 작동하는 것 같았습니다. 여행객들에게 정말 큰 도움이 될 것 같습니다.

튜터링

ChatGPT에 Google 렌즈와 유사한 새로운 기본 시각 기능이 추가됩니다. 기본적으로 이 기능을 통해 ChatGPT는 휴대폰의 카메라를 사용하여 '보기'를 할 수 있습니다.

데모팀은 ChatGPT에게 방정식을 보여주고 문제 해결을 도와달라고 요청했습니다. AI 음성 어시스턴트는 답을 알려주지 않고 수학 문제를 풀어나갔습니다.

또한 변경 사항을 확인할 수 있는 것처럼 보였습니다.

새로운 데스크톱 앱과 결합된 비전에는 데스크톱을 볼 수 있는 기능도 포함된 것으로 보입니다. 한 데모에서 ChatGPT는 코드를 보고, 분석하고, 잠재적인 문제와 코드가 해야 할 일을 설명할 수 있었습니다.

GPT-4o 모델을 사용한 ChatGPT가 완벽한 튜터가 될 수 있을까요?

 

OpenAI 봄 업데이트에는 데스크톱 앱과 같은 더 많은 업데이트와 도구가 포함되어 있습니다. 얼굴 인식과 감정 인식도 있었습니다.

이 글을 쓰는 시점에서 아직 모든 기능을 사용할 수 있는 것은 아니라는 점에 유의하세요. 앞으로 몇 주에 걸쳐 점진적으로 기능이 출시될 예정이지만 구체적인 기능이 언제 제공될지는 알 수 없습니다.

예를 들어 음성 어시스턴트를 사용할 수 없는 것 같습니다. 저희가 테스트해 본 결과 현재로서는 여전히 이전 버전입니다.

새로운 모델은 몇 가지 실제 테스트가 필요하며, 이미 저희 쪽에서 어떤 기능을 수행할 수 있는지 살펴보기 시작했습니다. GPT-4o의 테스트 과정을 지켜봐 주세요.

반응형