etc.

[챗GPT] OpenAI의 새로운 AI, GPT-4o 기능 정리 (1) - 보는 GPT

maniworld 2024. 5. 14. 17:06

emma의 일상기록.

 

GPT-4로 업그레이드 한지 얼마 되지 않았는데,

오늘 새벽에 새로운 GPT가 발표되었다.

일단 한줄 요약하자면 미쳤다.

 

먼저 유튜브 플레이리스트 링크 첨부.

 

https://www.youtube.com/playlist?list=PLOXw6I10VTv8VOvPNVQ8c4D4NyMRMotXh

 

Introducing GPT-4o

Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time.

www.youtube.com

 

유료로 쓰는 만큼

앞으로 업데이트 될 GPT-4o의 기능이 궁금하기 때문에

플레이리스트를 하나씩 보면서 확인해보려고 한다.

 

Say hello to GPT-4o

 

https://youtu.be/vgYi3Wr7v_g?si=5z-w4BPtthUPhkMK

 

출처 : OpenAI

 

해당 영상에서는 OpenAI 직원과 GPT가 대화하는 영상이 나온다.

대화는 영상통화 하는 것 처럼 진행이 되는데,

GPT는 화면 속 직원이 입고있는 후드에 글씨까지 인식해서

OpenAI 후드를 입은 것까지 알아챈다.

 

이게 말이 돼???

 

다음으로 직원이 현재 위치한 곳을 보여준다.

해당 장소에 있는 카메라, 마이크 등의 장비를 보더니

프로덕션, 비디오 촬영 등을 언급한다.

 

그리고는 OpenAI 후드까지 연계해서

혹시 OpenAI에 관해 발표하는 영상을 촬영하고 있는지까지 유추한다.

 

진짜 이건 그냥 사람이랑 대화하는 수준

 

 

가장 놀랐던 부분은 감정이 담긴 대화를 한다.

직원이 You(GPT)에 대한 발표를 하기 위해 촬영을 한다고 하니,

웃으면서 대답한다. 

 

지금 쓰고 있는 GPT는

아무리 똑똑해도 AI 같다는 느낌인데

이건 카메라도 켜고 감정이 담긴 대화를 하는 수준이니

기술의 발전이 어디까지 가려나 싶다.

 

내일은 플레이리스트 두 번째 영상을 정리해봐야지!