빠르게 발전하는 AI(feat. Gooogle, Meta, OpenAI)

2024. 2. 16. 10:36기록/UXUI 주저리

꽤나 재미있는 AI기술 소식이 커뮤니티에 올라와, 해당 글을 정리했다.


 

https://blog.google/intl/ko-kr/products/explore-get-answers/google-gemini-next-generation-model-february-2024-kr/

 

구글의 차세대 모델: 제미나이 1.5

제미나이에 관한 이야기를 이어가는 모델 블로그입니다. 제미나이 1.5 프로와 MoE(Mixture\u002Dof\u002DExperts)의 발전, 제미나이 울트라 출시, 최근 구글의 책임감 및 안전성 관련 사항에 대해서도 알려

blog.google

1. 구글의 Gemini 1.5

구글의 제미나이 1.5가 발표됐다.

컨테스트 길이를 늘려서 사용자가 올린 1시간짜리 영상 전체를 기억하고 자유롭게 Q&A하는 시연이 공개됐다.

(컨테스트 길이란 작업기억 용량을 의미한다.)

 

2. 페이스북 AI 연구와 오픈소스 코드

페이스북에서는 기존보다 좀 더 인간 아이와 유사한 방식으로 학습하는 방법에 대한 연구를 오픈소스 코드와 함께 공개됐다.

여기서 페이스북 AI의 얀 르쿤은 항상 '기존 AI는 우리집 고양이보다도 못하다'면서 아직 갈 길이 멀다고 주장해왔다.

이 내용으로 봤을 때, 페이스북 AI는 학습 방식 자체를 바꾸려는 것 같다.

 

 

https://openai.com/sora

 

Sora: Creating video from text

The current model has weaknesses. It may struggle with accurately simulating the physics of a complex scene, and may not understand specific instances of cause and effect. For example, a person might take a bite out of a cookie, but afterward, the cookie m

openai.com

3. 오픈AI의 Sora

오픈AI에서는 텍스트만 넣으면 영상으로 만들어주는 Sora 의 데모가 공개됐다.

프롬프트 작성 만으로 제작할 수 있는 영상의 퀄리티가 기존 AI영상과 비교할 수 없을 정도로 수준이 높아, 혁신적이라는 반응이 대다수이다.

언리얼 엔진이 만들어낸 영상들을 대규모 학습시켰을 것이라는 추측이 지배적이다.

 

 


최근 커피챗을 한 기업의 프로덕트는 영상을 기반으로 글을 만들어주는 서비스였다.

프로덕트의 매력과 니즈를 느껴 관심이 많이 갔는데, 동시에 든 생각은 '글을 기반으로 영상이 제작되는 것도 가능했으면 좋겠다.' 였다.

그 생각을 불과 3일 전과 어제 했었는데, 아침에 일어나보니 생각만 했던 프로덕트가 공개되어 있다.

내가 생각한 프로덕트는 좀 더 컴팩트한 것이였지만, Sora의 등장을 보니 AI기술이 정말 빠르게 진행되고 있다는 게 느껴진다.

 

한편, 메타의 AI기술자가 말한 것처럼 인간 아이에 못 미치는 수준인지에 대해서는 반 정도 공감한다.

현재의 AI는 웹에 등록되어 있는 정보/입력되는 정보만을 학습할 수 있다. 해당 정보가 정말로 명확한지에 대한 여부의 절차없이 말이다.

이 말은 즉, 잘못된 정보라도 AI가 학습한다면 해당 정보를 기반으로 생성을 한다는 의미이기도 하다.

시각 매체를 생성하는 AI는 큰 걸림이 되지 않겠지만, 기획 등 정보를 제공하는 AI의 경우에는 치명적이다.

결과적으로, 정보의 오염도를 파악해야 하는 것이 AI를 쓰기 전과 큰 차이가 없기 때문에 AI를 사용하는 의미가 희석되는 것 같다.

기술의 발전이 굉장히 빠르기 때문에 이 문제 또한 머지않아 해결될 수도 있지만, 현재로써는 AI가 생성해 주는 정보를 그대로 믿는 것은 아직은 어려운 것 같다.