본문 바로가기
아이티 늬우스

챗GPT 엔터 누를 때마다 10센트 들어가

by rollirolli 2023. 7. 11.
반응형

 

 

- 챗GPT 월 사용자 1억명 돌파(2023년 2월)

- 챗GPT 개발사 오픈AI 지난해 영업손실 5억4000만달러(2023년 7월)

 

지난해 11월 출시돼 전 세계적으로 선풍적인 인기를 끌고 있는 오픈AI의 챗GPT. 하지만 역설적으로 오픈AI의 적자 규모는 점점 늘어나고 있는 것으로 나타났다. 이유는 챗GPT 가동을 위해 필요한 인프라스트럭처 비용 때문이다. 

 

최근 미국 정보기술 전문매체인 '디인포메이션'은 내부 소식통을 인용해 오픈AI의 지난해 적자 규모가 5억4000만달러, 우리 돈 약 7050억원에 달한다고 보도했다. 이는 2021년 대비 두 배 가까이늘어난 규모다. 

 

오픈AI의 적자 규모가 커진 이유로 업계는 챗GPT 운영을 위한 그래픽처리장치(GPU) 인프라 구축 비용, 그리고 좋은 인력을 유치하기 위한 인건비 등이 크게 올랐기 때문으로 보고 있다. 올해부터 오픈AI는 챗GPT를 다양한 분야에 활용할 수 있는 방안을 찾고 있는데 워낙 적자 규모가 큰 만큼 단시간 내에 재무구조를 개선하는 것은 쉽지 않으리라고 전망된다. 

 

업계에 따르면 일반 사용자가 챗GPT 검색을 할 경우 '엔터' 버튼을 한 번 누를 때마다 약 10센트, 우리 돈 130원의 비용이 필요한 것으로 알려졌다. 단지 호기심으로 챗GPT에 질문을 하고 답을 업을 때마다 100원의 비용이 오픈AI에 부과되는 셈이다. 오픈AI의 대표 샘 올트먼도 챗GPT 구동에 들어가는 비용이 "눈물 날 정도로 비싸다"거나 "한 자릿수 센트의 비용이 들어간다"고 밣힌 바 있는데 이는 거대 AI를 구동하기 위해 필요한 인프라에 엄청난 비용이 필요하기 때문이다. 특히 챗GPT는 AI 추론 작업에 필요한 컴퓨터 칩인 엔비디아의 GPU를 대량으로 소모하고 있다. 컨설팅 기업 세미애널리스트에 따르면 오픈AI가 챗GPT를 하루 가동하는 데 필요한 하드웨어 비용은 70만달러, 우리 돈으로 약 9억3000만원에 달한다. 

 

만약 구글의 연간 검색 처리량만큼 하드웨어를 늘린다고 하면 단순GPU 구매 비용만 1000억달러, 우리 돈으로 약 130조원을 넘어설 것이라는 분석이 나올 정도다. 

 

결국 오픈AI는 올해 2월 월 20달러에 안정적인 접속, 빠른 응답을 제공하는 유료 구독 모델을 선보이기도 했다. 이어 3월에는 챗GPT 플로그인을 발표하면서 향후 거래 수수료나 광고를 기반으로 수익을 낼 가능성이 큰 새로운 비즈니스 모델을 발표했다. 

 

미국 현지에서는 오픈AI가 앱스토어와 비슷한 'LLM 마켓플레이스'를 출시할 것이라는 전망이 나오고 있다. 생성형 AI 등장의 기반이 된 LLM 기술이란 '대규모 언어 모델'을 뜻하는 것으로 번역이나 질문에 대한 답변, 채팅, 콘텐츠 요약과 생성 등 언어와 관련된 작업을 수행하는 데 효과적인 머신러닝 모델을 말한다. 이 기술을 고객의 입맛에 맞게 조정해 사고팔 수 있는 일종의 플랫폼을 만들겠다는 것으로 해석되고 있는 만큼, 오픈AI가 수익을 위한 다양한 방안을 검토하고 있는 것으로 보인다. 

 

한편 지난 5일 트래픽 통계 사이트 시밀러웹에 따르면 지난 6월 챗GPT 웹사이트에 대한 전 세계 데스크톱 및 모바일 트래픽은 전달보다 9.7% 감소한 것으로 집계됐다. 순방문자 수와 이용자들이 웹 사이트에서 보낸 시간도 각각 전달 대비 줄었다. 지난해 11월 출시 이후 월 기준으로 트래픽과 순방문자 수, 이용자 시간 등이 감소한 것은 처음이다. 업계는 짧은 기간 이용자 수가 빠르게 증가한 만큼 조정기를 거치는 중일 뿐 아니라 스마트폰으로 사용하는 사람들이 늘면서 방문자 수가 일시적으로 감소한 것이라는 분석이 나오고 있다. 


  • ChatGPT surpasses 100 million monthly users (February 2023).
  • OpenAI, the developer of ChatGPT, reports a business loss of $540 million in the previous year (July 2023).

 

ChatGPT, released in November of last year, has gained tremendous popularity worldwide. However, paradoxically, OpenAI's losses have been steadily increasing. The reason behind this is the infrastructure costs required to operate ChatGPT.

 

According to recent reports citing insider sources, OpenAI's losses in the previous year amounted to $540 million, approximately 70.5 billion Korean won. This represents an almost doubling in scale compared to 2021.

 

The industry attributes the increase in OpenAI's losses to the rising costs of establishing the infrastructure, such as graphics processing units (GPUs), necessary for operating ChatGPT, as well as the expenses associated with attracting skilled personnel. OpenAI is currently exploring ways to utilize ChatGPT in various fields. However, given the significant scale of the losses, it is projected that improving the financial structure in a short period will not be easy.

 

According to industry sources, each time a general user performs a ChatGPT search by pressing the "Enter" button, it costs approximately 10 cents, equivalent to 130 Korean won. Moreover, every time a question is asked to ChatGPT out of curiosity and a response is generated, a cost of 100 Korean won is imposed on OpenAI. Sam Altman, the CEO of OpenAI, has previously described the cost of running ChatGPT as "exorbitant to the point of tears" or "involving single-digit cents." This is due to the significant expenses required for the infrastructure to power the massive AI, particularly the extensive consumption of NVIDIA's GPUs, which are computer chips essential for AI inference tasks. According to consultancy firm estimates, the hardware costs for OpenAI to operate ChatGPT on a daily basis amount to $700,000, approximately 930 million Korean won.

 

If OpenAI were to expand its hardware to handle the same processing volume as Google's annual search, the analysis suggests that the simple GPU purchase cost alone would exceed $100 billion, approximately 13 trillion Korean won.

 

Consequently, in February of this year, OpenAI introduced a stable and fast-response paid subscription model for $20 per month. Furthermore, in March, they announced the release of the ChatGPT plugin, indicating a potential new business model that could generate revenue based on transaction fees and advertisements.

 

There are speculations in the US market that OpenAI will launch an "LLM Marketplace," similar to an app store. LLM technology, which serves as the foundation for the advent of generative AI, refers to a "large-scale language model" that is an effective machine learning model for performing language-related tasks such as translation, question-answering, chatbots, and content summarization and generation. As this technology is interpreted as the creation of a platform that can adjust to customers' preferences for buying and selling, it seems that OpenAI is exploring various avenues for generating revenue.

 

On another note, according to traffic statistics from SimilarWeb on the 5th of last month, the global desktop and mobile traffic to the ChatGPT website decreased by 9.7% compared to the previous month. The number of unique visitors and the time spent by users on the website also decreased compared to the previous month. This is the first time since its release in November of the previous year that the traffic, number of unique visitors, and user engagement have declined on a monthly basis. The industry speculates that the decrease in visitor numbers is not only due to a temporary decline but also a result of adjustments being made as the number of smartphone users increases.

 

 

 

 

 

 

 

※ 출처: 매일경제

반응형

댓글