☕️☕️ 오픈AI가 노출한 새로운 리스크

[키티의 빅테크 읽기] 20화. AI에 대해 지금 논의하지 않으면 안 될 것들
오픈AI가 오늘 또 챗GPT 플러그인(Plugin)을 발표하면서 세상을 술렁이게 했죠. 앞으로는 최신 정보까지 반영하고, 플러그인과 제휴한 웹사이트의 정보를 끌어와 사용자에게 답을 제공할 수 있게 된 것이죠. (아직 일부 영역이지만) 이제 말 그대로 인터넷 세상이 챗GPT에 연결되는 것입니다.

이처럼 이들이 하루가 다르게 화제가 되는 새로운 내용과 제품을 발표하고, 그로 인해 촉발된 테크 기업들의 AI 경쟁은 이제 그 막대한 비용을 고려해 누가 더 빨리 돈이 되는 제품을 만들어 수익을 내느냐의 경쟁에도 접어들고 있습니다.

하지만 이렇게 대중들이 일일이 따라가기 어려울 정도로 기술이 진보하고 새로운 제품이 나오는 상황에서 꼭 잊지 말아야 할 지점들이 있다는 목소리도 나오고 있어요. 이 목소리의 주인공 중 한 명은 다름 아닌 오픈AI의 CEO인 샘 알트먼(Sam Altman)이기도 합니다.

놀랍도록 발전하면서 현재 끝없는 가능성이 이야기되고 있는 생성 AI를 비롯한 AI 기술의 발전은 어떤 리스크를 품고 있을까요? 미국 내부에서는 이 기술을 선도하고, 가장 앞서 만들고 있다는 점을 안도하고 있기도 하지만 이와 동시에 책임 있는 AI에 대한 논의도 이루어져야 한다는 주장도 나오는 중입니다.

기술 개발 및 투자 경쟁과 함께 분명히 생각해야 할 건 구체적으로 어떻게 더 발전해 갈지 예측하기 어려운 AI가 끼칠 정치경제적 그리고 사회적 영향이죠. 이와 관련한 리스크는 분명 발전 과정 중에 '사업적인 리스크'가 되기도 하기 때문이고요.

오늘 [키티의 빅테크 읽기]는 지금 기술 발전과 투자 경쟁의 흥분 속에서 꾸준히 제기되어야 할 '책임 있는 AI'에 대한 이야기를 전합니다. 테크와 민간 영역을 넘어 정부와 정치의 대응이 어떠해야 하는지, 그리고 관련 비즈니스 리스크를 줄이기 위해서도 꼭 생각해 볼 지점들을 짚습니다.

[키티의 빅테크 읽기] 20화.
오픈AI가 노출한 새로운 리스크
AI에 대해 지금 논의하지 않으면 안 될 것들
순한 맛 AI: 오픈AI가 보여준 순기능

"시각장애인들이 앞에 어떤 사물이 놓여 있는지 '눈길' 앱만 켜고 있으면 알 수 있습니다."

드라마 <스타트업>에서 데모데이 피칭에 나선 CEO 서달미(배수지 분)는 음성-이미지 인식 AI 기술을 적용한 '눈길' 앱의 기능을 소개하기 위해 앱이 깔린 스마트폰을 켠다. 심사위원들 쪽으로 카메라를 돌리자 앱은 "남자 4명과 여자 2명이 앉아 있습니다"라며 앞의 사람들을 인지해 낸다.

드라마 속에 등장하던 기술이 실현될 날이 머지않았다. 지난 3월 14일 오픈AI의 GPT-4 소개 행사에서 함께 하는 협력사 중 하나로 '비 마이 아이즈(Be My Eyes)'가 등장했다. '비 마이 아이즈'는 2012년부터 전 세계 시각장애인-저시력인들이 쓰는 앱이다. (한국에서도 사용할 수 있다) 시각장애인이 앱으로 도움을 청하면 비시각장애인들이 화상통화를 통해 시각장애인이 카메라로 비춘 부분을 설명해 주는 커뮤니티 앱이다.

600만 명 이상의 비시각장애인 사용자와 47만 명의 시각장애인이 사용하는 '비 마이 아이즈'에 오픈AI가 협력해 ‘가상 자원봉사자(Virtual Volunteer)'란 서비스가 개발되는 중이다. 한마디로 GPT-4의 이미지 인식을 통해 인간 자원봉사자를 대신하는 것이다.

'비 마이 아이즈'외에도 세계적인 온라인 학습기관인 칸 아카데미(Khan Academy) 등이 오픈AI와의 협업을 진행한다. 이렇게 AI는 정보와 지식의 접근성을 높이는 역할을 할 수 있다.
드라마는 현실의 반영이다. 이렇게까지 화제가 될 수 있었던 건 AI가 사람들이 보지 못하는 무대 뒤에서는 놀랍게 발전하고 있었기 때문이다. (이미지: 드라마 <스타트업> 장면 캡처)
매운맛 AI: 이면에 있을 다른 기능
'비 마이 아이즈' 협업에서도 볼 수 있듯 GPT-4의 가장 큰 특징은 텍스트로 프롬프트(명령)을 전하는 챗GPT에서 이미지-영상 프롬프트가 가능해 활용도가 확 높아진 '멀티모달 (multi-modal)' AI라는 점이다. 멀티모달 명령을 통해 "인간과 동일한 수준의 맥락과 이해"를 생성할 수 있다는 게 오픈AI의 설명이다.

오픈AI가 홈페이지를 통해 공개한 개발자를 위한 GPT-4 데모 라이브 방송에서 소개된 GPT-4의 이해 능력을 보자.

'다람쥐가 카메라를 들고 있으며 알밤이 옆에 놓여진 그림'을 제시하고 "이 이미지의 이상한 점을 찾아줘"라고 명령어를 넣자 GPT-4는 "다람쥐는 알밤을 먹지 않고 인간이 아니므로 카메라를 들 수 없습니다"라고 답변했다.

AI가 단순히 이미지를 인식하는 수준을 뛰어넘어 이미지가 쓰인 맥락을 이해할 수 있게 되면 비 마이 아이즈에서 인간 자원봉사자가 하던 일을 대폭 대체할 수 있다. 시각장애인 입장에선 낯선 사람과의 접촉에서 오는 리스크도 줄일 수 있다. 

그러나 한편에서는 장애인의 삶의 질을 높일 수 있는 GPT-4 기능이 다른 한편에선 양날의 칼이 될 수도 있다. 이미지 등 멀티모달 상호작용이 가능한 AI에게 "카메라를 든 다람쥐가 이상하다"라고 대꾸할 능력이 있다면 스크린 너머에서 대화를 나누는 사람이 AI를 인간으로 착각해 개인정보를 넘겨주지 않으리란 법이 있을까?

이미 AI로 자녀의 목소리를 사칭한 '오디오 딥페이크'를 통해 노인에게 송금을 요구하는 신종 보이스피싱이 캐나다에서 발생했다.
AI는 이미 로봇인지 아닌지 판단하기 위해 만든 '캡차'도 영리하고 간단하게 뚫고 있다.  
오픈AI의 'AI의 위협' 설파
이런 AI 악용 위험을 앞장서서 경고하고 있는 건 다름 아닌 빅테크의 AI 군비경쟁을 촉발한 오픈AI다. 오픈AI는 GPT-4 발표와 동시에 AI의 잠재적 위험에 대한 보고서도 함께 발표했다. 보고서에 따르면 GPT-4는 깨지거나 일그러진 글씨를 식별하는 자동로그인 방지 시스템 '캡차(CAPTCHA)'를 사람에게 부탁해 읽어내는 데 성공했다. 일거리 연결 플랫폼인 태스크래빗(TaskRabbit)에서 GPT-4가 "캡차 읽는 일 좀 부탁해"라는 태스크를 올린 것. 

이 일에 지원한 상대방이 "당신 혹시 로봇은 아니겠지?"라고 물었는데 AI는 "시각장애가 있어서 캡차를 읽을 수 없다"라고 답변했다. 스크린 너머의 사람은 로봇에게 속아 넘어간 셈이다. (사실 이미지 인식 능력이 있으니 GPT-4가 웬만한 캡차는 인지할 수 있을 것이라고 익히 짐작할 수 있다)

심지어 이 위험을 경영진이 나서서 홍보한다. 샘 알트먼 오픈AI CEO는 미라 무라티 CTO와 함께 미 ABC뉴스에 출연해 AI의 위험성에 대해 인터뷰했다. 알트먼의 인터뷰 태도는 시종일관 겸손하고 신중해 보였다. "나도 AI의 잠재력이 두렵다"라며 "AI는 잘못된 정보를 퍼뜨릴 수 있다"라고 경고하기도 했다. 

그럼에도 불구하고 이 기술이 일반에 공개되어야만 정부가 공개된 결함을 고려해 적절한 정책 조치를 취할 수 있다고 주장한다. 현재는 AI의 상업적 발전에 있어 상당한 초기 단계에 있기 때문에 공개된다고 하더라도 위험도가 낮아 수정도 가능하다는 논리다. 
샘 알트먼도 AI의 발전을 경계해야 한다고 한다. 사업적인 이유도 있지만, 너무 빠른 발전은 진짜 위험할 수 있다고 생각하기 때문이기도 하다.
이렇게 오픈AI가 AI의 위험성을 함께 공개하는 건 어떤 의미일까?   

  • 첫번째 해석: 화제성에서 AI 붐의 최전방에 있는 오픈AI가 다른 경쟁기업이나 후발주자를 견제하는 목적이라는 해석이다. AI의 위험성을 미리 경고하며 이 산업의 전반적 속도 조절에 나섰다는 것이다. GPT-3을 발표할 땐 매개변수 숫자(1750억 개)를 공개했던 오픈AI는 GPT-4 발표에서는 "지나친 경쟁이 조장될 수 있다"며 매개변수 숫자를 밝히지 않았다. 이제 더는 순수 NGO가 아니라 MS의 대규모 투자를 받고 있는 오픈AI가 다른 경쟁 테크기업을 의식하는 건 당연하기도 하다.   

  • 두번째 해석: 거세게 밀어닥치는 규제 압박에서 정책이나 규제가 생기더라도 오픈 AI의 페이스대로 맞추어 가겠다는 의도다. 알트먼은 인터뷰에서 "정부와 자주 소통하고 있다. 곧 관련 부처가 생길 것"이라며 오픈AI가 정부의 정책결정에 있어서 이미 파트너 역할을 하고 있다는 점을 내비쳤다.  

  • 세번째 해석: 말 그대로 '미친 AI 개발 속도전'은 위험하기 때문이다. 이런 지적은 이미 예전부터 있었다. 그것도 앞서 AI를 개발했던 전직 빅테크 직원들에게서 나오는 지적이다. 지난 3월 초 미 CBS의 인기 시사 프로그램 <60분>에는 전직 구글 AI 윤리학자 팀닛 게브루(Timnit Gebru)의 인터뷰가 방송됐다. 현재의 AI는 그 베이스가 되는 데이터 자체에 이미 소수자, 소외계층의 목소리 자체가 밀려나 있기 때문에 다양성을 반영하는 데 큰 결함이 있다는 게 게브루의 주장이다.

...

☕️☕️ AI에 대해 지금 꼭 생각해야 할 문제는?
궁금하다면 샷 추가해 보세요. 실질적인 공부와 도움이 되는 커피팟의 재밌는 비즈니스 이야기들 꾸준히 받아보실 수 있어요.

📌 첫 달 50% 할인 중이에요. 더 할인된 연간 구독제도 있어요. 

☕️ 글쓴이를 소개합니다
키티의 한글 이름은 홍윤희이다. 대표적인 이커머스 기업에서 커뮤니케이션 업무를 리드했고, 소셜임팩트를 담당했다. 딸의 장애를 계기로 장애를 무의미하게 하자는 취지의 협동조합 무의(Muui)를 운영하며 2021년 초 카카오임팩트 펠로우로 선정됐다. IT, 미국 정치, 장애, 다양성, 커뮤니케이션 등의 주제를 넘나들며 페이스북브런치에 글을 쓴다. 

한국일보, 아웃스탠딩 등의 미디어에 정기 기고와 출연 중이며, 지식 커뮤니티 '시에라소사이어티'에서 <빅테크와 미국 정치> 독서클럽도 진행하고 있다.

good@coffeepot.me

ⓒ COFFEEPOT 2023
더는 받아보고 싶지 않으시다면
수신거부