2024. 2. 16. 10:36ㆍ기록/UXUI 주저리
꽤나 재미있는 AI기술 소식이 커뮤니티에 올라와, 해당 글을 정리했다.
1. 구글의 Gemini 1.5
구글의 제미나이 1.5가 발표됐다.
컨테스트 길이를 늘려서 사용자가 올린 1시간짜리 영상 전체를 기억하고 자유롭게 Q&A하는 시연이 공개됐다.
(컨테스트 길이란 작업기억 용량을 의미한다.)
2. 페이스북 AI 연구와 오픈소스 코드
페이스북에서는 기존보다 좀 더 인간 아이와 유사한 방식으로 학습하는 방법에 대한 연구를 오픈소스 코드와 함께 공개됐다.
여기서 페이스북 AI의 얀 르쿤은 항상 '기존 AI는 우리집 고양이보다도 못하다'면서 아직 갈 길이 멀다고 주장해왔다.
이 내용으로 봤을 때, 페이스북 AI는 학습 방식 자체를 바꾸려는 것 같다.
3. 오픈AI의 Sora
오픈AI에서는 텍스트만 넣으면 영상으로 만들어주는 Sora 의 데모가 공개됐다.
프롬프트 작성 만으로 제작할 수 있는 영상의 퀄리티가 기존 AI영상과 비교할 수 없을 정도로 수준이 높아, 혁신적이라는 반응이 대다수이다.
언리얼 엔진이 만들어낸 영상들을 대규모 학습시켰을 것이라는 추측이 지배적이다.
최근 커피챗을 한 기업의 프로덕트는 영상을 기반으로 글을 만들어주는 서비스였다.
프로덕트의 매력과 니즈를 느껴 관심이 많이 갔는데, 동시에 든 생각은 '글을 기반으로 영상이 제작되는 것도 가능했으면 좋겠다.' 였다.
그 생각을 불과 3일 전과 어제 했었는데, 아침에 일어나보니 생각만 했던 프로덕트가 공개되어 있다.
내가 생각한 프로덕트는 좀 더 컴팩트한 것이였지만, Sora의 등장을 보니 AI기술이 정말 빠르게 진행되고 있다는 게 느껴진다.
한편, 메타의 AI기술자가 말한 것처럼 인간 아이에 못 미치는 수준인지에 대해서는 반 정도 공감한다.
현재의 AI는 웹에 등록되어 있는 정보/입력되는 정보만을 학습할 수 있다. 해당 정보가 정말로 명확한지에 대한 여부의 절차없이 말이다.
이 말은 즉, 잘못된 정보라도 AI가 학습한다면 해당 정보를 기반으로 생성을 한다는 의미이기도 하다.
시각 매체를 생성하는 AI는 큰 걸림이 되지 않겠지만, 기획 등 정보를 제공하는 AI의 경우에는 치명적이다.
결과적으로, 정보의 오염도를 파악해야 하는 것이 AI를 쓰기 전과 큰 차이가 없기 때문에 AI를 사용하는 의미가 희석되는 것 같다.
기술의 발전이 굉장히 빠르기 때문에 이 문제 또한 머지않아 해결될 수도 있지만, 현재로써는 AI가 생성해 주는 정보를 그대로 믿는 것은 아직은 어려운 것 같다.