오픈AI가 오늘 또 챗GPT 플러그인(Plugin)을 발표하면서 세상을 술렁이게 했죠. 앞으로는 최신 정보까지 반영하고, 플러그인과 제휴한 웹사이트의 정보를 끌어와 사용자에게 답을 제공할 수 있게 된 것이죠. (아직 일부 영역이지만) 이제 말 그대로 인터넷 세상이 챗GPT에 연결되는 것입니다.
이처럼 이들이 하루가 다르게 화제가 되는 새로운 내용과 제품을 발표하고, 그로 인해 촉발된 테크 기업들의 AI 경쟁은 이제 그 막대한 비용을 고려해 누가 더 빨리 돈이 되는 제품을 만들어 수익을 내느냐의 경쟁에도 접어들고 있습니다.
하지만 이렇게 대중들이 일일이 따라가기 어려울 정도로 기술이 진보하고 새로운 제품이 나오는 상황에서 꼭 잊지 말아야 할 지점들이 있다는 목소리도 나오고 있어요. 이 목소리의 주인공 중 한 명은 다름 아닌 오픈AI의 CEO인 샘 알트먼(Sam Altman)이기도 합니다.
놀랍도록 발전하면서 현재 끝없는 가능성이 이야기되고 있는 생성 AI를 비롯한 AI 기술의 발전은 어떤 리스크를 품고 있을까요? 미국 내부에서는 이 기술을 선도하고, 가장 앞서 만들고 있다는 점을 안도하고 있기도 하지만 이와 동시에 책임 있는 AI에 대한 논의도 이루어져야 한다는 주장도 나오는 중입니다.
기술 개발 및 투자 경쟁과 함께 분명히 생각해야 할 건 구체적으로 어떻게 더 발전해 갈지 예측하기 어려운 AI가 끼칠 정치경제적 그리고 사회적 영향이죠. 이와 관련한 리스크는 분명 발전 과정 중에 '사업적인 리스크'가 되기도 하기 때문이고요.
오늘 [키티의 빅테크 읽기]는 지금 기술 발전과 투자 경쟁의 흥분 속에서 꾸준히 제기되어야 할 '책임 있는 AI'에 대한 이야기를 전합니다. 테크와 민간 영역을 넘어 정부와 정치의 대응이 어떠해야 하는지, 그리고 관련 비즈니스 리스크를 줄이기 위해서도 꼭 생각해 볼 지점들을 짚습니다. |
'비 마이 아이즈'외에도 세계적인 온라인 학습기관인 칸 아카데미(Khan Academy) 등이 오픈AI와의 협업을 진행한다. 이렇게 AI는 정보와 지식의 접근성을 높이는 역할을 할 수 있다.
오픈AI가 홈페이지를 통해 공개한 개발자를 위한 GPT-4 데모 라이브 방송에서 소개된 GPT-4의 이해 능력을 보자.
그러나 한편에서는 장애인의 삶의 질을 높일 수 있는 GPT-4 기능이 다른 한편에선 양날의 칼이 될 수도 있다. 이미지 등 멀티모달 상호작용이 가능한 AI에게 "카메라를 든 다람쥐가 이상하다"라고 대꾸할 능력이 있다면 스크린 너머에서 대화를 나누는 사람이 AI를 인간으로 착각해 개인정보를 넘겨주지 않으리란 법이 있을까?
이 일에 지원한 상대방이 "당신 혹시 로봇은 아니겠지?"라고 물었는데 AI는 "시각장애가 있어서 캡차를 읽을 수 없다"라고 답변했다. 스크린 너머의 사람은 로봇에게 속아 넘어간 셈이다. (사실 이미지 인식 능력이 있으니 GPT-4가 웬만한 캡차는 인지할 수 있을 것이라고 익히 짐작할 수 있다)
심지어 이 위험을 경영진이 나서서 홍보한다. 샘 알트먼 오픈AI CEO는 미라 무라티 CTO와 함께 미 ABC뉴스에 출연해 AI의 위험성에 대해 인터뷰했다. 알트먼의 인터뷰 태도는 시종일관 겸손하고 신중해 보였다. "나도 AI의 잠재력이 두렵다"라며 "AI는 잘못된 정보를 퍼뜨릴 수 있다"라고 경고하기도 했다.
그럼에도 불구하고 이 기술이 일반에 공개되어야만 정부가 공개된 결함을 고려해 적절한 정책 조치를 취할 수 있다고 주장한다. 현재는 AI의 상업적 발전에 있어 상당한 초기 단계에 있기 때문에 공개된다고 하더라도 위험도가 낮아 수정도 가능하다는 논리다.
수신거부