1. 본격적으로 AI 움직이는 구글, 2. 회복하는 디지털 광고 시장? 오늘은 AI 영역에서 본격적으로 걸음을 빨리하는 구글의 모습을 우선 전합니다. 최근 구글 검색에도 대규모 언어 모델(LLM)을 적용해 이미지와 영상 검색 결과를 제시하는 실험을 진행 중이고, 로봇의 뇌 역할을 하는 모습도 공개되었어요.
이어서 전체 광고 시장은 커가지만, 역시나 가장 큰 디지털 광고가 그 파이를 계속 키우고 있고, 그 파이도 빅테크 기업들이 가장 많이 차지하는 모습을 짚었습니다. 앞으로도 이들이 가진 기술 우위가 만드는 격차는 더욱 벌어질 것으로 보여요. |
[AI] #빅테크 #더빨라지는AI개발 1. 본격적으로 AI 움직이는 구글 |
AI 개발에 속도를 한껏 높여 온 빅테크 기업들이 이제는 한숨 돌리고 다양한 적용 사례들을 보여주면서 수익을 내기 위한 방법을 찾고 있다고 지난 이야기를 통해서 전해드렸는데요. 이들은 계속해서 바삐 움직이는 중입니다. 현재 시장을 이끄는 오픈AI는 마이크로소프트와의 협업, 그리고 GPT에 데이터 분석을 쉽게 해주는 코드 인터프리터(Code Interpreter)와 같은 기능을 붙이면서 시장과의 핏을 찾아가고 있어요. 애플은 드러나지 않지만 유용한 기능들을 위주로 AI를 적극 활용하는 중이며, 메타는 자신들의 모델을 적극적으로 오픈 소스로 공개하는 전략을 취하고 있고요. 그리고 이런 빅테크 중에서도 요즘 가장 크게 움직이는 선수가 있습니다. 바로 챗GPT에 선수를 뺏기며, 검색을 기반으로 한 사업 모델을 다듬어야 하는 구글이 가장 다양하고 적극적인 AI의 적용을 추진하는 모습을 보이는 중이죠.
오늘은 구체적으로 구글이 어떤 모습을 보여주는지 살펴보고자 합니다. 과연 사람들을 구글에 붙잡아 놓을 기능들일까요? |
이제 구글 검색에서도 이미지와 비디오가 결과에 함께 포함되고 있어요. 그리고 맨 상단에 "(현재) 적용된 생성 AI는 실험적인 기능이다. 정보의 질이 일정치 않을 수 있다."라고도 표시하는 중이에요. (이미지 출처: 구글, 더버지) |
구글 검색의 AI 확장 시작구글 홈(Home)과 같은 기기를 써 보신 분들이라면, “헤이 구글”이라고 말하고 무언가를 요청하는 것에 익숙하실 거예요. 바로 그때 사용되는 기능이 바로 구글 어시스턴트(Assistant)인데요. 최근 외부에도 알려진 구글의 내부 이메일을 통해 이 구글 어시스턴트가 대규모 언어 모델(LLM) 기술 활용에 집중하겠다는 사실이 밝혀졌습니다. 사용자의 입장에서라면 구글에 텍스트로 검색을 하든, 음성으로 검색을 하든, 지메일 내에서 검색을 하든 상관 없이 일관적으로 동일한 수준의 답변을 기대하게 되는데요. LLM과 같은 기술의 적용이 워낙 시급하게 진행된 터라 각 부서별, 기능별로 적용에 대한 시차가 존재할 수밖에 없었으리라 예상됩니다. 하지만 이제야 본격적으로 구글의 다양한 기능들에 AI의 적용이 시작된 것이라고 볼 수 있습니다.
구글이 실험적으로 지원하던 생성 AI를 활용한 검색 기능(SGE, Search Generative Experiment)에서도 최근 검색어에 관련된 이미지와 비디오까지 표시가 되도록 업데이트되었습니다. 만약 사용자가 (위의 이미지에서 처럼) "감자 써는 법"이라고 검색한다면, AI를 통해 생성된 답변 내부에 해당 답변의 정확도를 올려줄 수 있는 비디오 클립 등도 같이 표시된다는 것이죠.
(일단 해당 기능은 현재 미국에서만 지원되고 있는데요) 이런 기능이 가능하다는 것은 어떤 의미일까요? AI가 이제 사용자들의 질문을 이해하는 것은 물론, 이에 대한 적절한 답변과 함께 영상/이미지까지 표시하기 위해 사용자들이 올린 동영상, 이미지 등에 담긴 내용까지 모두 이해하기 시작했다는 것이라고 볼 수도 있습니다. 유튜브 영상에 음성이 있다면 자동 자막과 번역을 통해 음성을 텍스트로 바꾸어 이해하고요.
이미 우리는 유튜브를 검색을 위해서도 많이 쓰고 있죠. 특히 "무언가를 어떻게 하는 법(How-to)"과 같은 검색 쿼리들은 텍스트보다 동영상이 더 효율적인 학습이 될 가능성이 높습니다. |
"멸종한 동물을 집어줘"라고 하니 바로 공룡을 집었어요. (이미지 출처: 구글 딥마인드) |
이제 로봇의 뇌 역할 하는 AI
RT-2는 VLA(Vision-Language-Action(시각-언어-행동)) 모델이라고도 부르며, 웹과 로봇 공학에서 학습한 데이터를 기반으로 지시사항을 이해하고 행동하는 것이 가능케 해 주는 기술입니다. 원래 로봇을 잘 통제하는 것은 모든 지시 사항을 일일이 프로그래밍해 주어야 하는 대단히 복잡하고 시간이 오래 걸리는 일이었습니다. 무언가를 집게 만들고 싶다면, "팔을 50cm 옆으로 옮겨", "손가락을 모두 펴", "30cm 아래로 이동해", "손가락을 구부려" 등등 모든 행동을 명시해야 했습니다. 지시 사항에서 조금만 벗어난 예외 케이스가 입력되어도 동작이 잘못되거나 멈추어 버리는 일이 부지기수였죠.
하지만 LLM 기반의 기술들이 발전하며 텍스트를 넘어 이미지까지의 인식과 이해까지 가능해졌고, 구글의 연구자들은 이러한 기술을 로봇 공학에 적용하기 시작한 것입니다. 더 쉬운 말로 풀자면, 구글의 LLM인 바드(Bard)가 로봇 팔의 뇌 역할을 해 주고 있다고 생각해도 크게 틀리지 않습니다.
결과는 놀라웠습니다. 책상 위에 놓인 다양한 동물 장난감 중에서, "멸종한 동물을 집어 줘"라고 명령하자, 이를 정확하게 이해하고 공룡을 집는 모습을 보여주었습니다. 더불어 "'폭스바겐'을 독일 국기 옆으로 옮겨 줘"라는 명령도 틀리지 않고 수행하는 모습을 볼 수 있었습니다. 이후 진행된 실험에서 종종 틀리는 모습을 보여주었지만, 실제 물리적인 행동을 수행할 수 있는 로봇이 세상에 대한 추론 능력과 이해력을 가지게 된 것은 중요한 일입니다. 이러한 결과를 두고 뉴욕타임스와의 인터뷰에서 구글 딥마인드의 로보틱스 부서의 수장 빈센트 반후케(Vincent Vanhoucke)는 "우리가 이전에 쌓은 많은 작업이 완전히 부정되었다”라고 말합니다.
단순한 텍스트 입출력을 넘어 위 사례들에서 볼 수 있듯, 대규모 언어 모델은 이미 텍스트 기반을 넘어 이미지 및 동영상을 이해하는 수준으로 발전하고 있습니다. 그러한 모델을 대규모 "언어" 모델이라고 부르기보다는 멀티 모달(Multi-modal)*이라는 단어를 사용하는 것이 적합하지 않나 싶기도 합니다. * '멀티모달'은 텍스트, 이미지, 영상, 음성 등 시청각 요소로 이루어진 여러 방법으로 정보를 주고받는 것을 말하는 개념이고, 이런 다양한 채널의 '모달리티(Modality, 양식)'를 동시에 받아들여서 학습하고 사고하는 AI를 '멀티모달 AI'라고도 합니다. 쉽게 말하면 사람이 사물을 받아들이는 방식으로 학습하는 AI라고도 할 수 있어요.
이제 이미지, 텍스트, 소리, 동영상 등을 단순히 생성하는 것을 넘어, 이를 이해하는 수준까지 무리 없이 성장하고 있는 것으로 보입니다. 작년 말부터 올해 초까지 대중에게 공개된 이미지 생성 AI들은 사용자의 프롬프트를 받아 이에 매칭되는 이미지를 생성하는 것이 주요한 기능이었어요. 하지만 GPT-4 나 바드와 같은 LLM들은 이제 서서히 이미지에서도 "어떤 일이 일어나고 있는지"를 파악하고 추론이 가능한 영역까지 발전했다는 이야기입니다.
|
GPT-4에게 "(위의) 사진들이 왜 웃겨?"라고 질문하니, 이 사진의 웃기는 포인트는 휴대폰에 모니터 단자가 꽂힌 것이라는 점을 설명해 주고 있다. (이미지 출처: 오픈AI) |
실제로 GPT-4의 연구 페이퍼에는 사용자가 "이 사진들이 왜 웃겨?"라고 질문하자, GPT-4가 사진 간의 관계, 해당 사진이 가지는 사회적인 의미 등까지 모두 고려하여, "휴대폰에 모니터 단자가 꽂힌 것이 웃깁니다"라고 대답하는 사례가 소개되어 있습니다. 이는 구글의 AI 로봇과 같은 사례라고 할 수 있어요. 아니, 엄밀히 따지면 더 나아간 것이죠. 기계가 자신이 보는 것을 이해하고, 실제로 물리적인 동작을 수행하는 것까지 발전한 것입니다.
기계는 의외로 복잡한 계산을 하는 데는 효율적이지만, "거기서 내가 어제 쓴 펜 좀 집어줘"와 같은 인간에게는 단순한 일은 처리하지 못했습니다. 추론 능력과 물리적인 동작 능력을 모두 프로그래밍하려면 엄청난 비용이 들었기 때문입니다. 하지만 상황이 달라졌습니다. 이제는 '뇌' 역할을 대신하는 AI가 점점 발전하는 만큼, 로봇의 동작, 검색 결과의 다양성 등을 넘어 자율주행이나 생산 자동화 등까지 지금보다 훨씬 더 간단하고 낮은 비용으로 더 많은 문제들을 해결하는 모습이 나올 것이라 예상됩니다. 각종 도구를 시각으로 구분하여 목공 일을 한다던가, 화장실을 구석구석 청소한다든가 하는 일들을 기계가 수행하는 것에 점점 더 낮은 비용이 들 것이라고 보이고요.
이제 또 한 차원 더 나아간 경쟁이 시작된 것으로 보입니다.
- By 준. O2O 스타트업에서 일했고, 현재는 글로벌 콘텐츠 회사에서 일하고 있어요. 스타트업, 웹3, AI 등 새로운 기술이 바꾸어 나가는 세상의 모습에 많은 관심을 두고 있습니다. |
[미디어] #디지털광고 #빅테크파이 2. 디지털 광고 시장, 회복되는 중? |
알파벳, 메타 등 빅테크 기업들이 최근 잇따라 광고 수익이 개선됐음을 알리면서 2021년 이후 침체되었던 디지털 광고 시장이 회복되고 있다는 낙관적인 전망이 나오고 있어요. 2분기 실적을 발표하면서 알파벳은 유튜브가 3분기 연속 광고 매출이 줄어든 이후 전년 동기 대비 다시 반등한 76억 7000만 달러(약 10조 760억 원)의 매출을 기록했다고 알렸고요. 메타는 전년 동기 대비 매출이 11%, 광고 수익은 12% 증가했다고 밝혔죠. 물론, 이들만 보면 디지털 광고 시장이 회복하면서 다시 전반적인 시장의 성장세가 커지는 것으로도 보이는데요. 빅테크와 일부 기업을 제외한 소셜미디어나 미디어 기업들은 여전히 디지털 광고 수익을 회복하는데 어려움을 겪고 있으며, 이를 대체할 다른 수익원을 찾아야 하는 상황입니다.
|
디지털 광고 시장의 비중은 점점 커지고 있어요. 글로벌 광고 에이전시인 그룹M에 따르면 전 세계 광고 시장 규모는 2023년에 8745억 달러(약 1148조 원)에 이를 것으로 예상돼요. 이 중 디지털이 6016억 달러(약 790 조원)를 차지하고요. 또, 이 중에서 가장 큰 파이를 차지하는 것이 빅테크 기업들의 플랫폼이죠. (데이터: 그룹M) |
빅테크 실적은 좋아졌지만 메타는 지난해,생성 AI 기술을 활용해 광고 퍼포먼스를 개선할 도구를 잇따라 출시했어요. 광고주가 핵심 메시지만 입력하면 사용자의 환경(위치, 관심사, 플랫폼 등)에 따라 문구와 이미지가 다른 광고 소재를 다양하게 제작해 주는 AI 샌드박스나 머신러닝을 사용해 광고의 효율성을 향상하는 어드밴티지+ 서비스 등을 내놓았죠.
이런 최신 기술을 활용한 고도화된 제품을 내놓자 시장은 반응했어요. 가진 예산에 맞게 개인화된 광고 솔루션을 제공하겠다는 전략이 통하면서 메타는 기업들이 (자신들의 플랫폼에서) 광고를 더 많이 하게끔 만들었죠. 유튜브는 올해 초, 급격히 성장한 쇼츠에도 광고를 붙이기 시작했어요. 이후 광고주들이 쇼츠를 통해더 많은 타겟 소비자에게 도달하도록 광고 도구들을 출시하거나 개선하는 중이에요. 2분기 유튜브의 광고 매출 성장을 견인한 것은 기업들의 브랜드 광고였는데요. 구글의 최고 사업 책임자는 "기업의 광고비 지출이 안정화되었다는 신호"라고 평가했어요. 이외에도 우버, 인스타카트 등의 디지털 광고 사업도 성장하는 중이라고 알렸는데요. 성장이 크게 둔화되었던 광고 시장이 회복세를 보인다는 것이 애널리스트들의 공통된 의견이에요.
투자은행 맥쿼리의 애널리스트 팀 놀랜(Tim Nollen)은 2분기에 소비자 지출이 +1.6%로 성장이 둔화된 반면, 기업의 투자 지출은 +7.7%로 급등했고, 이는 기업의 광고 지출이 증가할 것임을 보여주는 가장 중요한 지표로 본다고 했어요.
다른 미디어는 계속 어려운데 하지만 몇몇 빅테크를 제외한 소셜미디어와 미디어 업계에서는 여전히 광고 시장이 회복되고 있다는 것을 느끼기는 어려워요. 여전히 미국 십 대들의 사랑을 받는 소셜미디어인 스냅(Snap)은 2분기 실적과 3분기 실적 전망을 발표한 후 주가가 급락하는 모습을 보였는데요.
일간 활성 사용자 수(DAU)는 3억 9700만 명으로 전년 같은 기간 대비 14% 증가했지만, 여전히 광고 수요에 대한 전망이 제한적이며 1, 2분기에 이어 3분기에도 광고 매출이 하락할 것으로 보인다고 밝혔기 때문이에요. 사용자를 잃지 않고, 광고 수익 기반을 키우기 위해 자체 AI 챗봇도 출시하는 등의 노력도 이어왔지만, 메타와 틱톡 사이에서의 경쟁은 쉽지 않아 보입니다. 광고 수익을 늘려야 하는 미디어 기업들의 상황도 다르지 않아요. 최근 어려움이 이어지는 워싱턴포스트는 작년부터 구독자와 함께 디지털 광고 수익도 현저히 줄고 있어요. 올해도 광고 수익 증가에 대한 기대를 가질 수 있는 상황이 아니에요. 뉴욕타임스는 유료 구독자가 지속적으로 늘면서 구독 수익은 증가했지만, 디지털 광고 수익은 전년 동기 대비 9% 감소했어요. 복스 미디어, 버즈피드 등의 뉴미디어는 1분기에 이어 2분기에도 매출과 광고 수익이 줄어든 데다 4분기까지 상황이 개선되지 않을 것이라고 예상하면서 디지털 광고 수익을 대체할 다른 수익원을 찾는 중이에요. 최근에는 코로나로 연기되거나 취소되었던 이벤트가 다시 열리면서 이로 인해 얻는 티켓과 광고 수익이 커지자 라이브 이벤트 사업에 집중하는 모습을 보이고 있죠.
기업들이 효율적으로 광고를 집행하기 위한 디지털 광고 툴 경쟁에서도 밀릴 수밖에 없는 이들은 기업들의 광고 비용이 점점 더 빅테크로 쏠리는 현상을 지켜볼 수밖에 없기도 합니다. 불균형 커질 수밖에 없는 상황
광고 시장은 올해도 양호하게 성장할 것으로 보여요. 대표적인 광고 에이전시인 그룹M이 최근 내놓은 전망에 의하면 올해 글로벌 광고 시장은 5.9% 증가할 것으로 예상돼요. 이 중 디지털 광고 시장은 8.4% 성장을 기록할 것으로 예상돼요. 지난 미국발 금융위기 직후인 2009년 이후 가장 작은 성장세를 기록하는 것인데요.
이는 디지털 광고 시장이 이제는 그만큼 성숙한 시장임을 보여주는 것이기도 합니다. 디지털 광고 매출은 이제 전체 광고 시장 매출의 69%에 이르러요. 이 비중은 점차 커져 2028년에는 74%가 넘을 것으로 전망되고요.
하지만, 경기가 하강하는 국면이 이어지면서 기업들의 광고비 지출이 감소한 이후, 광고 시장에서는 빅테크 기업과 다른 기업 사이의 불균형이 오히려 커져 왔어요. 디지털 광고 시장은 (당연히) 빅테크 기업으로 쏠리는 현상이 더 커지는 중이고, 앞으로도 기술 우위를 바탕으로 이들의 점유율은 더욱 확장될 것으로 보이죠. 그리고 이 기술 우위에는 (당연히) 생성 AI가 포함되어 있습니다. 향후 디지털 광고 사업의 지형을 완전히 바꿀 것으로 예상되고 있죠. 생성 AI 기술이 적용된 광고 도구를 사용함으로써 기업의 마케터는 훨씬 더 적은 시간을 들여 더 좋은 퀄리티의 결과물을 대량으로 만들 수 있게 되었어요. 물론 빅테크 플랫폼에서 집행되는 이 광고들은 더 정교하게 개인화되어 노출될 것으로 예상할 수 있죠.
점점 기술 격차가 벌어질 수밖에 없는 현실 속에서 빅테크 플랫폼과 경쟁해야 하는 기업들은 시장이 성장해도 그 속에서 파이를 키우기가 어려워지는 중입니다.
- By 핀핀. 콘텐츠 스타트업을 거쳐 IT 회사에서 콘텐츠를 만들고 있습니다. 주요 미디어 플랫폼들의 동향과 새로운 미디어 스타트업들의 시도들에 관심이 많습니다. |
💡[모임] 빅테크와 소셜미디어 지형 커피팟의 두 번째 모임 <빅테크와 소셜미디어 지형> 놓치지 마세요!
메타와 트위터(현재 'X')를 넘어 소셜미디어 지형이 어떻게 바뀔지, 그리고 이를 이끄는 인물들이 산업을 어떻게 바꾸려는 것인지에 힌트 얻어가실 수 있어요. 빅테크와 그들의 지배적인 사업 구조 그리고 영향력에 관한 이야기도 전할 예정이에요.
다음 주 목요일(8/17) 저녁 7시입니다 :) |
good@coffeepot.me
© COFFEEPOT 2023
구독자 정보 혹은 구독 상태 변경을 원하신다면
|
|
|
현재 시장을 이끄는 오픈AI는 마이크로소프트와의 협업, 그리고 GPT에 데이터 분석을 쉽게 해주는 코드 인터프리터(Code Interpreter)와 같은 기능을 붙이면서 시장과의 핏을 찾아가고 있어요. 애플은 드러나지 않지만 유용한 기능들을 위주로 AI를 적극 활용하는 중이며, 메타는 자신들의 모델을 적극적으로 오픈 소스로 공개하는 전략을 취하고 있고요.
그리고 이런 빅테크 중에서도 요즘 가장 크게 움직이는 선수가 있습니다. 바로 챗GPT에 선수를 뺏기며, 검색을 기반으로 한 사업 모델을 다듬어야 하는 구글이 가장 다양하고 적극적인 AI의 적용을 추진하는 모습을 보이는 중이죠.
구글 홈(Home)과 같은 기기를 써 보신 분들이라면, “헤이 구글”이라고 말하고 무언가를 요청하는 것에 익숙하실 거예요. 바로 그때 사용되는 기능이 바로 구글 어시스턴트(Assistant)인데요. 최근 외부에도 알려진 구글의 내부 이메일을 통해 이 구글 어시스턴트가 대규모 언어 모델(LLM) 기술 활용에 집중하겠다는 사실이 밝혀졌습니다.
사용자의 입장에서라면 구글에 텍스트로 검색을 하든, 음성으로 검색을 하든, 지메일 내에서 검색을 하든 상관 없이 일관적으로 동일한 수준의 답변을 기대하게 되는데요. LLM과 같은 기술의 적용이 워낙 시급하게 진행된 터라 각 부서별, 기능별로 적용에 대한 시차가 존재할 수밖에 없었으리라 예상됩니다. 하지만 이제야 본격적으로 구글의 다양한 기능들에 AI의 적용이 시작된 것이라고 볼 수 있습니다.
구글이 실험적으로 지원하던 생성 AI를 활용한 검색 기능(SGE, Search Generative Experiment)에서도 최근 검색어에 관련된 이미지와 비디오까지 표시가 되도록 업데이트되었습니다. 만약 사용자가 (위의 이미지에서 처럼) "감자 써는 법"이라고 검색한다면, AI를 통해 생성된 답변 내부에 해당 답변의 정확도를 올려줄 수 있는 비디오 클립 등도 같이 표시된다는 것이죠.
AI가 이제 사용자들의 질문을 이해하는 것은 물론, 이에 대한 적절한 답변과 함께 영상/이미지까지 표시하기 위해 사용자들이 올린 동영상, 이미지 등에 담긴 내용까지 모두 이해하기 시작했다는 것이라고 볼 수도 있습니다. 유튜브 영상에 음성이 있다면 자동 자막과 번역을 통해 음성을 텍스트로 바꾸어 이해하고요.
원래 로봇을 잘 통제하는 것은 모든 지시 사항을 일일이 프로그래밍해 주어야 하는 대단히 복잡하고 시간이 오래 걸리는 일이었습니다. 무언가를 집게 만들고 싶다면, "팔을 50cm 옆으로 옮겨", "손가락을 모두 펴", "30cm 아래로 이동해", "손가락을 구부려" 등등 모든 행동을 명시해야 했습니다. 지시 사항에서 조금만 벗어난 예외 케이스가 입력되어도 동작이 잘못되거나 멈추어 버리는 일이 부지기수였죠.
하지만 LLM 기반의 기술들이 발전하며 텍스트를 넘어 이미지까지의 인식과 이해까지 가능해졌고, 구글의 연구자들은 이러한 기술을 로봇 공학에 적용하기 시작한 것입니다. 더 쉬운 말로 풀자면, 구글의 LLM인 바드(Bard)가 로봇 팔의 뇌 역할을 해 주고 있다고 생각해도 크게 틀리지 않습니다.
결과는 놀라웠습니다. 책상 위에 놓인 다양한 동물 장난감 중에서, "멸종한 동물을 집어 줘"라고 명령하자, 이를 정확하게 이해하고 공룡을 집는 모습을 보여주었습니다. 더불어 "'폭스바겐'을 독일 국기 옆으로 옮겨 줘"라는 명령도 틀리지 않고 수행하는 모습을 볼 수 있었습니다. 이후 진행된 실험에서 종종 틀리는 모습을 보여주었지만, 실제 물리적인 행동을 수행할 수 있는 로봇이 세상에 대한 추론 능력과 이해력을 가지게 된 것은 중요한 일입니다.
이러한 결과를 두고 뉴욕타임스와의 인터뷰에서 구글 딥마인드의 로보틱스 부서의 수장 빈센트 반후케(Vincent Vanhoucke)는 "우리가 이전에 쌓은 많은 작업이 완전히 부정되었다”라고 말합니다.
위 사례들에서 볼 수 있듯, 대규모 언어 모델은 이미 텍스트 기반을 넘어 이미지 및 동영상을 이해하는 수준으로 발전하고 있습니다. 그러한 모델을 대규모 "언어" 모델이라고 부르기보다는 멀티 모달(Multi-modal)*이라는 단어를 사용하는 것이 적합하지 않나 싶기도 합니다.
작년 말부터 올해 초까지 대중에게 공개된 이미지 생성 AI들은 사용자의 프롬프트를 받아 이에 매칭되는 이미지를 생성하는 것이 주요한 기능이었어요. 하지만 GPT-4 나 바드와 같은 LLM들은 이제 서서히 이미지에서도 "어떤 일이 일어나고 있는지"를 파악하고 추론이 가능한 영역까지 발전했다는 이야기입니다.
이는 구글의 AI 로봇과 같은 사례라고 할 수 있어요. 아니, 엄밀히 따지면 더 나아간 것이죠. 기계가 자신이 보는 것을 이해하고, 실제로 물리적인 동작을 수행하는 것까지 발전한 것입니다.
이제는 '뇌' 역할을 대신하는 AI가 점점 발전하는 만큼, 로봇의 동작, 검색 결과의 다양성 등을 넘어 자율주행이나 생산 자동화 등까지 지금보다 훨씬 더 간단하고 낮은 비용으로 더 많은 문제들을 해결하는 모습이 나올 것이라 예상됩니다. 각종 도구를 시각으로 구분하여 목공 일을 한다던가, 화장실을 구석구석 청소한다든가 하는 일들을 기계가 수행하는 것에 점점 더 낮은 비용이 들 것이라고 보이고요.
물론, 이들만 보면 디지털 광고 시장이 회복하면서 다시 전반적인 시장의 성장세가 커지는 것으로도 보이는데요. 빅테크와 일부 기업을 제외한 소셜미디어나 미디어 기업들은 여전히 디지털 광고 수익을 회복하는데 어려움을 겪고 있으며, 이를 대체할 다른 수익원을 찾아야 하는 상황입니다.
유튜브는 올해 초, 급격히 성장한 쇼츠에도 광고를 붙이기 시작했어요. 이후 광고주들이 쇼츠를 통해더 많은 타겟 소비자에게 도달하도록 광고 도구들을 출시하거나 개선하는 중이에요. 2분기 유튜브의 광고 매출 성장을 견인한 것은 기업들의 브랜드 광고였는데요. 구글의 최고 사업 책임자는 "기업의 광고비 지출이 안정화되었다는 신호"라고 평가했어요.
이외에도 우버, 인스타카트 등의 디지털 광고 사업도 성장하는 중이라고 알렸는데요. 성장이 크게 둔화되었던 광고 시장이 회복세를 보인다는 것이 애널리스트들의 공통된 의견이에요.
투자은행 맥쿼리의 애널리스트 팀 놀랜(Tim Nollen)은 2분기에 소비자 지출이 +1.6%로 성장이 둔화된 반면, 기업의 투자 지출은 +7.7%로 급등했고, 이는 기업의 광고 지출이 증가할 것임을 보여주는 가장 중요한 지표로 본다고 했어요.
광고 수익을 늘려야 하는 미디어 기업들의 상황도 다르지 않아요. 최근 어려움이 이어지는 워싱턴포스트는 작년부터 구독자와 함께 디지털 광고 수익도 현저히 줄고 있어요. 올해도 광고 수익 증가에 대한 기대를 가질 수 있는 상황이 아니에요. 뉴욕타임스는 유료 구독자가 지속적으로 늘면서 구독 수익은 증가했지만, 디지털 광고 수익은 전년 동기 대비 9% 감소했어요.
복스 미디어, 버즈피드 등의 뉴미디어는 1분기에 이어 2분기에도 매출과 광고 수익이 줄어든 데다 4분기까지 상황이 개선되지 않을 것이라고 예상하면서 디지털 광고 수익을 대체할 다른 수익원을 찾는 중이에요. 최근에는 코로나로 연기되거나 취소되었던 이벤트가 다시 열리면서 이로 인해 얻는 티켓과 광고 수익이 커지자 라이브 이벤트 사업에 집중하는 모습을 보이고 있죠.
불균형 커질 수밖에 없는 상황
그리고 이 기술 우위에는 (당연히) 생성 AI가 포함되어 있습니다. 향후 디지털 광고 사업의 지형을 완전히 바꿀 것으로 예상되고 있죠. 생성 AI 기술이 적용된 광고 도구를 사용함으로써 기업의 마케터는 훨씬 더 적은 시간을 들여 더 좋은 퀄리티의 결과물을 대량으로 만들 수 있게 되었어요. 물론 빅테크 플랫폼에서 집행되는 이 광고들은 더 정교하게 개인화되어 노출될 것으로 예상할 수 있죠.