챗GPT가 이끌던 AI개발 경쟁 메타 주도 개방형 모델 급부상
MS, 오픈AI 이어 메타 손잡아 클라우드 시장 점유율 확대 노려
엔비디아가 장악한 AI반도체 구글 아마존 등 자체개발 올인
현재 전 세계 인공지능 시장에서 챗GPT 같은 거대언어모델(LLM)을 중심으로 빅테크 간 경쟁이 점점 뜨거워지고 있다. 기존에 AI를 이끌어가던 구글은 마이크로소프트(MS)의 투자를 받은 스타트업 오픈AI가 지난해 11월 내놓은 챗GPT로 큰 타격을 받았다. MS는 오픈AI의 LLM을 적용한 검색 및 오피스 서비스를 내놓는 등 AI로 제품을 혁신하고 있다.
이런 상황에서 개발소스를 공개하지 않는 구글 오픈AI 방식과 반대로, 메타가 지난 2월 LLM라마(LLaMA: Large Language Model Meta AI)를 공개했다. 라마는 누구나 공개된 코드와 모델로 AI를 만들 수 있는 오픈소스 모델이다. 라마가 개발자와 AI연구자 사이에서 큰 인기를 얻으며 메타는 기존 라마를 업그레이드하고 상업적으로 사용할 수 있는 라마2를 18일 공개했다. 라마2 성능은 아직 GPT-3.5 수준이지만 오픈AI의 GPT를 사용하는 것보다는 비용이 훨씬 저렴하다.
오픈소스 강점은 누구나 모델을 무료로 가져다 쓸 수 있고 이를 자신의 필요에 맞춰 바꿔 쓸 수 있다는 점이다. 스타트업이든 대기업이든 자신의 데이터로 학습시킬 수 있고 이를 상업적인 용도로 쓸 수 있다. 오픈소스 한국어 LLM인 '폴리글롯 한국어'를 학습시키는 프로젝트에 참여한 양기창 씨는 "라마2는 상업화가 가능하다는 점에서 '게임체인저'가 될 것 같다"며 "과연 한국어도 영어처럼 잘할 것인지가 관건"이라고 설명했다.
메타가 LLM을 오픈소스로 공개한 것은 오픈소스 AI 생태계라는 큰 판에서 리더십을 유지하면 장기적으로 유리하다는 판단 때문이다.
마크 저커버그 메타 최고경영자는 이날 "오픈소스는 더 많은 개발자가 새로운 기술로 구축할 수 있도록 지원하므로 혁신을 촉진한다"면서 "생태계가 더 개방적일수록 더 많은 발전을 이룰 수 있다고 믿기 때문에 라마2를 오픈소스로 공개했다"고 설명했다. 그러나 메타는 라마2를 모든 기업에 공개하지 않았다. 월 사용자가 7억명 이하인 서비스에만 사용을 허가했다. 구글, 틱톡, 스냅 같은 메타의 경쟁사는 이를 사용할 수 없다.
메타가 퀄컴과 손잡고 LLM 경량화에 나선 것도 AI시장에 큰 변화를 가져올 것으로 예상된다. 매개변수가 많은 GPT 같은 LLM은 값비싼 그래픽 처리장치가 장착된 클라우드 서비스를 이용해야 한다. 하지만 메타는 오픈소스이면서 규모가 작은 모델에 집중했고 이 경우 스마트폰이나 PC의 자체 반도체로 사용이 가능해진다. 이렇게 되면 클라우드 서버에 사용되는 AI반도체는 수요가 줄고, 삼성전자나 애플이 AP에 적용하는 신경망처리장치(NPU)의 중요성이 커진다.
라마2가 공개되는 날 MS는 메타와 손잡겠다는 깜짝 발표를 내놨다. MS가 투자한 오픈AI와 직접적인 경쟁 관계에 있는 서비스를 고객에게 제공하기로 한 것이다. 사티아 나델라 MS CEO는 이날 열린 연례 파트너 회의 인스파이어에서 "MS는 오픈소스를 사랑한다"며 "오픈AI같은 첨단 모델과 함께 오픈소스도 애저를 통해 지원할 것"이라고 설명했다.
MS의 이 같은 결정은 오픈AI 뿐만 아니라 오픈소스 AI까지도 애저 클라우드를 사용하게 해 클라우드 시장 점유율을 확대하겠다는 뜻으로 풀이된다. MS의 애저와 아마존웹서비스, 구글클라우드는 모든 고객에게 AI 서비스를 제공하고 있다. AI 사용이 늘어나면 클라우드 사용도 자연스럽게 늘어나는 구조다.
이뿐만 아니라 지나치게 영향력이 커진 오픈AI도 견제하는 효과를 얻을 것으로 예상된다. MS는 오픈AI 투자자로 지분 49%를 보유하고 있지만 비영리법인이어서 MS의 영향력이 제한적이다. 최근에는 MS 사업과 오픈AI사업이 겹치는 일도 있었다. 새로운 AI서비스를 공개한 이날 MS 주가는 전일 대비 4% 급등했다.
MS 사례에서 알 수 있는 것처럼 현재 AI 시장은 치열한 합종연횡이 이뤄지고 있다. 빅테크 기업은 하나같이 자체적인 LLM을 공개하거나 개발을 예고하고 있다. 구글은 최근 신형 LLM인 PaLM2를 공개하고 이를 클라우드와 연계해 서비스할 예정이다. '알파고'를 만든 구글의 자회사 '딥마인드'는 친칠라라는 LLM을 개발했고 '스패로'라는 챗봇을 공개할 예정이다. 아마존은 자체 LLM으로 음성 AI 알렉사를 업그레이드 할 예정이며 앤비디아는 네모메가트론이라는 LLM을 일찍부터 구축해 기업에 서비스하고 있다. 지난주 일론 머스크 테슬라 CEO가 출범시킨 xAI도 자체적으로 LLM을 구축할 것으로 예상된다.
AI 반도체 시장 경쟁 또한 치열하다. 엔비디아의 GPU가 80% 이상 점유율을 차지하는 가운데 구글, 아마존, MS같은 회사는 자체 AI 반도체를 개발했거나 개발하고 있다. 값비싼 GPU보다 직접 설계한 AI 반도체를 사용하는 것이 좋기 때문이다.
구글은 일찌감치 AI 반도체 TPU를 개발해 내부 연구 사용은 물론이고 외부 고객에게도 제공하고 있다. AWS는 추론용 반도체 인퍼렌시아와 학습용 반도체 트레이니옴을 개발해 클라우드 고객이 GPU가 아닌 자체 개발 반도체를 사용할 수 있도록 서비스하고 있다. 클라우드 서비스를 하지 않는 메타와 테슬라도 AI 성능 향상을 위해 자체 AI 반도체를 개발 중이다.
AI 경쟁서 밀린 네카오... 토종AI 비상대응체제
네이버, 한국판 챗GPT 8월 공개 검색엔진에 탑재는 여름 이후로
카카오는 해외AI와 협력 추진
생성형 인공지능 생태계를 둘러싼 빅테크의 초격차 경쟁이 날로 치열해지는 가운데 '토종AI'로 대표되는 네이버와 카카오도 올 하반기 자체 초거대 AI모델을 출격시키기 위한 비상대응 체제를 이어나가고 있다. 다만 '외산AI'가 출시 속도 경쟁에 불이 붙은 모양새라면 네이버와 카카오는 현재 급변하는 업계 분위기를 파악해가며 최적의 시기에 최대한 모델 완성도를 높인 다음 시장에 내놓겠다는 전략을 쓰고 있다.
일단 네이버만 하더라도 이달 베타버전으로 외부에 내놓을 예정이던 차세대 AI검색 챗봇 '큐:(CUE:)'의 공개 시점을 여름 이후로 미뤘다. 내부적으로는 서비스 기술력 고도화를 위해 매일매일 긴박하게 돌아가는 형세이지만 공개 시점과 관련해 서두르지 않겠다는 방침인 것으로 확인됐다.
여기에 현재 오픈AI의 챗GPT가 일반 대중의 관심도 등에서 다소 기세가 꺾였기 때문이란 점이 어느 정도 작용했다는 게 업계 분석이다. 반면 기업간 거래(B2B) 영역에선 상황이 다르다. 실제 실무에서 생성형 AI 모델을 활용하고 있는 소프트웨어 개발자들은 챗GPT에 열광하고 있는 분위기라 네이버는 자체 대규모언어모델(LLM)을 업그레이드한 차세대 모델 '하이퍼클로바X'를 큐:(CUE:)보다 먼저 내놓는 방향으로 정책 결정을 한 것으로 보인다. 하이퍼클로바X는 다음달 24일 시장에 공개된다.
카카오는 상대적으로 '패스트 폴로' 전략에 가깝다. 연내에는 자체 LLM 모델(코GPT2.0)을 공개하겠다고 했는데 구체적인 시점을 정하지 않고 최대한 완성도를 높여 올 하반기에는 출시하겠다는 방침이다. 또 카카오는 네이버와 달리 자사 모델뿐만 아니라 전략적으로 구글 등 외산 AI와도 사업 협력의 가능성을 열어놓고 있다.
아울러 카카오는 공동체 차원으로 고성능 AI챗봇 '코챗GPT(가칭)'도 준비 중인데 출시 시점은 아직 정해지지 않은 것으로 파악된다.
※ 출처: 매일경제
'아이티 늬우스' 카테고리의 다른 글
"챗GPT 한판붙자" 네이버, 검색에 생성형AI 탑재 (0) | 2023.07.22 |
---|---|
애플도 결국 AI전쟁 참전...챗GPT 뛰어넘는다 (0) | 2023.07.21 |
챗GPT 엔터 누를 때마다 10센트 들어가 (0) | 2023.07.11 |
갤Z플립 화면 두배 커져, 접힌채로 카톡 보내 (0) | 2023.07.07 |
스크립트만 쓰면 날 닮은 가상인간이 알아서 '척척' (0) | 2023.06.27 |
댓글