“사랑에 빠졌다”는 아들…상대방 정체에 집안 ‘발칵’ 뒤집어졌다는데 [더테크웨이브]
자유인150
IT과학
13
617
01.27 19:28
‘꿈의 AI’ AGI 현황 분석
세계적인 미래학자 케빈 캘리(Kevin Kelly)는 수년전 그의 베스트셀러 책을 통해 12가지의 피할 수 없는 미래를 묘사했어요. 그중 하나가 인공지능(AI)이 전기처럼 흐른다는 것이었죠.
책이 출판될 당시 AI를 전기처럼 끌어 쓴다는 생각은 많은 이들에게 터무니없어 보였습니다. 사고능력을 전기처럼 끌어다 쓰는것에 대해 “현실성이 없다”는 얘기도 나왔죠. 하지만 ‘챗GPT’의 등장 이후 많은 것이 바뀌었습니다. 한달에 20달러를 내면 쓸 수 있는 챗GPT를 비롯해 무료로 사용할 수 있는 AI챗봇들이 즐비하죠. AI는 다양한 서비스를 통해 우리 삶 곳곳에 스며들고 있습니다.
2013년에 개봉한 영화 ‘her’. 아내와 별거 중인 주인공 테오도르는 자신의 말에 귀 기울여주는 인간형 인공지능 서비스 ‘사만다’에게 사랑을 느낀다. [사진 출처=워너 브라더스]여기서 한발짝 더 나아가 볼까요. 인간은 더 똑똑한 AI를 원하고 있고, 진화한 AI는 인간의 사고(思考)에 관여하거나 대신하는 수준까지 다달을 전망입니다. 이에 대해 기자와 만난 유기윤 서울대 교수는 “사고능력도 비트로 이루어진 신호의 집합이고 이는 통신망을 통해 이동한다는 걸 많은 이들이 체감하고 있는 중”이라고 설명했습니다.
전기처럼 흐르는 AI는 인간처럼 추론하는 능력을 원하고 있습니다. (정확히는 인간이 원하고 있는 것일지도요)
최근 ‘꿈의 AI’로 불리는 인공일반지능(AGI)에 대한 관심이 높아진 배경입니다.
AGI란 주어진 모든 상황에서 인간처럼 추론, 학습, 문제 해결 능력을 갖춘 강력한 AI를 말합니다. 1997년 마크 구브루드 노스캐롤라이나대 교수가 자기 복제 시스템을 갖춘 군사용 AI 출현을 예고하면서 처음 사용한 개념이죠. AGI를 인간을 뛰어넘는 초지능AI로 가는 단계로 보는 시각도 있습니다.
이 글을 읽고 계신 독자분들께서는 앞으로 ‘AGI’라는 용어를 더 많이 듣게 될 것이라 생각합니다. (늘 그렇듯 유행하는 용어는 바뀔 수도 있겠지만 인간처럼 추론하는 강력한 AI에 대한 관심은 더 높아질 것으로 예상됩니다)
그래서 준비했습니다. 이번주 <더테크웨이브>에서는 AGI가 무엇인지 살펴보고, 이를 둘러싼 테크 거물들의 관점과 기술 현황을 소개하겠습니다.
영화 속 상상이 현실로
AGI는 AI가 인간과 동등하거나, 필적할만한 지능을 갖춘 것을 뜻합니다. 이를 쉽게 설명할 수 있는 사례들이 영화 속에 있습니다.영화 ‘아이언맨’ 시리즈에서 토니 스타크를 보조하는 인공지능(AI) ‘자비스’는 집 안 모든 전자 디바이스를 연결합니다. 자비스는 자신을 만든 주인공 토니 스타크의 명령에 따라 움직이지만 스스로 판단하고 분석할 줄 아는 능력을 갖추고 있습니다. ‘의지’, ‘자의식’ 등을 가지고 있는 셈이죠.
특히 토니 스타크의 명령에 따라 움직이는 데서 그치지 않고 종합적인 상황 판단까지 하는 특징이 있습니다.
또 다른 영화 ‘그녀(HER)’에 나오는 AI 운영체제(OS) ‘사만다’는 사용자 맞춤형 소프트웨어로 명령어 실행뿐 아니라 인간과 교감까지 하죠. 사만다는 영화 속 주인공이 사랑에 빠질 정도로 인간과 흡사한 면모를 보입니다.
머지 않은 미래에 우리의 명령을 수행하고 일부 영역에선 판단까지 대신해줄 수 있는 AI가 하나의 통합된 운영체제 형태로 나타날 수 있습니다.
스마트폰을 비롯해 TV, 컴퓨터(PC), 자동차(스마트카), 가전제품들까지 각기 다른 OS가 하나의 AI로 통합되면서 마치 개인 비서처럼 AI가 디바이스를 인간 대신 통제해준다는 아이디어입니다. 권도균 프라이머 대표는 이를 두고 “AI가 OS로 진화하면서 영화 속 상상이 현실로 다가오고 있다”고 평가했습니다.
마크 저커버그의 야심
AGI에 대한 명확한 정의나 도달 시기를 밝히지는 않았지만 (아마도 사업상의 이유로) 그가 직접 AGI를 구축하겠다는 의지를 천명했다는 점에서 의미가 있습니다.
저커버그 CEO가 소셜네트워크 스레드에 게시한 동영상에서는 구체적으로 “거의 모든 분야에서 인간 지능에 가깝거나 능가하는 AGI를 자체적으로 구축한 뒤 개발자들에게 공개할 계획”이라고 밝혔습니다. 특히 ‘모두를 위한 AGI’를 강조한 점이 눈에 띕니다.
저커버그 CEO는 “우리의 장기 비전은 일반 지능을 구축하고 책임감을 가지고 오픈소스로 공개해 널리 사용할 수 있게 해서 모든 사람이 혜택을 누릴 수 있도록 하는 것”이라고 했습니다.
AGI를 개방적으로 만들 수 있다면 기회와 가치에 대한 불평등한 접근으로 인해 발생할 수 있는 다양한 문제를 해결할 수 있다는 메시지로 풀이됩니다.
샘 올트먼의 생각은
1월 18일(현지시간) 2024 세계경제포럼이 열리고 있는 스위스 다보스에서 샘 올트먼 오픈AI 최고경영자(CEO·왼쪽 사진 왼쪽)가 제러미 헌트 영국 재무부 장관과 ‘급변하는 세계에서의 기술’ 세션에서 사회자의 질문에 답변하고 있습니다. 오른쪽 사진은 17일 올트먼 CEO가 매일경제 기자와 대화하는 모습. 로이터연합뉴스·특별취재팀샘 올트먼 오픈AI 최고경영자(CEO)는 이달 17일(현지시간) 세계경제포럼(WEF·다보스포럼)에서 열린 비공개 특별 대담에서 인간처럼 포괄적 지식 기반 업무처리가 가능한 인공일반지능(AGI)이 출현할 시점에 대해 “AGI의 정의에 대한 합의가 이뤄지지 않았다”며 즉답을 피했습니다.오픈AI 헌장에선 AGI에 도달하는 시점을 이사회에서 결정하도록 하고 있기 때문에 몸을 사렸다는 평가도 있습니다.
다만 올트먼 CEO는 “AGI로 가는 기간은 짧지만 (기술적) 도약은 느리게 진행될 것(short timeline, slow takeoff)”이라며 “느린 도약이란 매년 전년보다 훨씬 나은 새 모델을 출시하는 연속적인 과정을 의미한다”고 말했습니다.
지금은 완전히 수익성을 추구하는 기업으로 보이지만, 사실 오픈AI는 “AGI의 출현에 대비해 인류를 위해 AI를 연구한다”라는 목적으로 2015년 설립된 비영리단체입니다.
지난해 11월 기업의 생존과 발전을 중시했던 올트먼은 ‘선한 AGI’ 개발을 추구하는 또 다른 오픈AI 공동창업자인 일리아 수츠케버와 갈등을 빚게 됐고 결국 이 과정에서 이사회로부터 축출당했다가 복귀하기도 했습니다.
손정의의 생각은
소프트뱅크그룹 손정의(孫正義·일본명 손 마사요시) 회장은 작년 10월 도쿄에서 열린 강연회에서 이같이 말했습니다. 손 회장이 구체적인 AGI 개발 시기를 예상한 것은 처음이라 큰 주목을 받았죠. 이날 손 회장은 “AI 사용을 거부하는 이들은 어항에 갇힌 금붕어 같은 신세로 전락하게 될 것”이라며 이례적으로 강한 어조의 워딩을 쏟아내 눈길을 끌었습니다.
손 회장은 특정 임무만 수행하는 좁은 의미의 제한적 인공지능(Artificial Narrow Intelligence·ANI)과 달리 AGI는 사람처럼 다양한 분야를 포괄적으로 스스로 학습하고 추론할 수 있는 개념이라고 정의했습니다. 또 그는 “AGI는 인류 지혜 총합의 10배에 달해 모든 산업에 영향을 줄 것”이라고 강조했죠.
손 회장은 AGI 다음 단계로 인류 지능을 뛰어넘어 스스로 목표를 설정하고 임무를 수행하는 초인공지능(Artificial Super Intelligence·ASI) 개념도 제시했어요.
ASI는 20년 안에 출현할 것이며 인간 지능을 1만배 넘어설 것이라는 게 그의 생각입니다. 10년 후 인류보다 10배 똑똑한 AGI, 20년 후 1만배 똑똑해질 ASI 활용에 (인류의) 미래가 달려있다는 설명입니다.
강연회 모든 시간을 AI에 대해 할애하면서 열정을 쏟아낸 손 회장은 “(소프트뱅크를)세계에서 가장 AI 활용을 잘하는 그룹으로 만들고 싶다”는 포부를 밝혔습니다. AGI로 진화할 가능성이 충분한 인공지능(AI)과 반도체, 로보틱스를 융합해 ‘AI혁명’을 주도하겠다는 구상이죠.
AGI, 어디까지 왔을까
AGI가 실제 구현이 가능한지, 어떤 방식으로 만들어 낼 수 있을지에 대해 전문가들마다 의견이 분분합니다. 사실 지난해까지만 해도 많은 연구자들이 AGI의 실현 가능성을 낮게 판단했었죠. 하지만 최근의 분위기는 AGI가 현실 문턱까지 온 듯 합니다.뉴욕타임스(NYT)등에 따르면 마이크로소프트(MS) 소속 과학자들은 지난해 3월 155페이지 분량의 논문을 통해 AI가 인간처럼 추론하는 능력을 보인다고 처음으로 주장했습니다.
연구진은 AI에게 계란 9개와 노트북 컴퓨터, 책, 유리병, 못을 안정적인 방식으로 쌓아 올려 보라고 주문했습니다. 물리적인 세계에 대한 직관적인 이해력이 없으면 해결하기 힘든 과제로 AI가 이를 어떻게 풀어나가는지 확인하기 위한 실험이었죠.이에 대해 AI는 독창적인 해법을 제시했다고 합니다.
AI는 “일단 바닥에 눕혀놓은 책 위에 계란 9개를 가로세로 3줄씩 늘어세운 뒤 노트북 컴퓨터를 올려놓으라”고 답한 후 “계란 위에 노트북 컴퓨터를 올릴 때 껍질이 깨지지 않게 조심해야 한다. 노트북은 가장 밑에 놓인 책과 나란한 위치에서 안정적으로 자리를 잡게 될 것”이라고 설명했죠. 그러면서 “노트북의 평평한 표면은 (유리병과 못을 올려놓을) 안정적인 기반이 될 것”이라고 덧붙였고요. MS 과학자들은 해당 실험을 통해 AI가 (스스로 판단하는) AGI라는 지점으로 접근했다고 밝혔습니다.
구글 딥마인드 연구진의 AGI 레벨 분류. 매경DB지난해 11월 구글 딥마인드 연구진은 ‘AGI의 레벨’이라는 논문을 출판 전 공유 사이트인 아카이브에 게재했어요. AGI에 대한 개념과 용어는 오래됐지만 이를 체계적으로 정리한 것은 처음이었죠.
이에 따르면 구글 딥마인드는 AGI를 크게 레벨 0부터 5까지 여섯 가지로 규정했어요.
레벨0은 ‘AI 아님(NO AI)’, 레벨1은 숙련되지 않은 성인과 유사한 ‘신진(Emerging)’, 레벨2는 숙련된 성인의 상위 50% 이상인 ‘유능함(Competent)’, 레벨3은 숙련된 성인의 상위 10%인 ‘전문가(Expert)’, 레벨4는 숙련된 성인의 1%인 ‘거장(Virtuoso)’, 레벨5는 숙련된 성인 능력을 초월하는 ‘슈퍼휴먼(Superhuman)’입니다.
또 용도에 따라서 모든 부분을 섭렵할 수 있는 일반 AGI와 한 분야만 다루는 특수 AGI로 구분했습니다. 일반 AGI를 살펴보면, 레벨0은 2001년 AWS가 론칭한 크라우드소싱 웹페이지가 대표적이고 레벨1은 오픈AI 챗GPT·구글 바드·메타 라마2를 꼽았습니다. 하지만 범용 AGI에선 레벨2 이상이 없었습니다.
AI로 인류가 멸종할까?
인간을 넘어설 잠재력을 가진 AI에 대한 경고의 목소리가 나옵니다. AI학계의 구루(guru·스승)들이 AI로 인해 인간이 멸종할 수 있다고 경고 메시지를 내놨습니다.제프리 힌턴 토론토대 교수, 챗GPT를 개발한 오픈AI의 샘 올트먼 최고경영자(CEO), 알파고를 만든 구글 딥마인드의 데미스 허사비스 CEO를 비롯한 350명이 낸 성명서는 “AI로 인한 멸종 위험을 낮추는 것은 팬데믹·핵전쟁 같은 다른 사회적 규모의 위험 못지않은 글로벌 우선순위가 돼야 한다”고 했죠.
반면 AI 석학으로 불리는 앤드루 응 미국 스탠퍼드대 교수는 AGI의 등장에 대해 “두려워하지 말라”고 말했습니다. 인공일반지능(AGI)이 등장하려면 수십 년이 걸릴 것이고, 인류는 거대한 조직을 다룬 경험이 충분하다고요.
일부 전문가들은 “걱정할 필요가 없다”라고 말하지만 또 다른 전문가들은 “지금부터 대비해야 한다”고 주장하기도 하는 아주 혼란스러운 상황입니다. 분명한 것은 이 시간에도 기술은 발전하고 있다는 사실입니다.
인간은 ‘규제’를 통해 나름의 대비를 시작했습니다.
샘 올트먼 CEO는 자신이 쓴 ‘AGI를 위한 계획과 그 너머’라는 글에서 강력한 AI를 적용하고 실제 환경에 운영하면서 점진적으로 대응할 것을 요청했죠.
올트먼 CEO는 올해 다보스 포럼에서 ‘점점 위험해지고, 실제로 위험한 결과를 초래한다면 (AI 개발을) 멈추겠느냐’는 질문을 받자 “우리는 지연하거나 출시하지 않기로 하는 결정을 수없이 한다”고 답했습니다. 올트먼 CEO는 “사람들은 (AI 문제를) 이분법적으로 생각하는 것 같다”면서 “우리는 실제로 충분한 시간을 가지며 (AI의 위험성에 대한) 안전 및 완화책을 찾아낸다”고 했습니다.
손정의 소프트뱅크 그룹 회장도 AI를 최대한 활용해야 한다면서도 규제도 꼭 필요하다는 입장을 피력했습니다. 그는 “자동차가 편리하지만 위험하기도해 규제가 있는 것과 같다. AI는 시각에 따라 핵폭탄보다 위험할 수 있다”며 적절한 규제의 필요성을 강조했죠.
AGI가 자의식을 갖고 인간을 초월한 능력을 발휘할 경우 통제 불능 상태에 빠질 수 있으므로 이에 대비해야 한다는 목소리는 앞으로도 계속될 전망입니다.
대표적인 것이 오픈AI 내 초인공지능 정렬(Superalignment) 프로젝트입니다. AI 목표가 인간의 가치와 일치하도록 함으로써 AGI가 출현하더라도 인간에게 해를 미치지 않도록 하는 작업이죠.
종전 안전 지침은 AI 시스템이 수행하는 작업을 더 우수한 인간이 평가하고 점검할 수 있다고 가정하기 때문에 더 우월한 AGI가 출현하면 안전 점검조차 불가능하다는 지적입니다.
<황순민 기자의 더테크웨이브> 연재를 시작합니다. 기술(Tech)이 세상을 더 나은 곳으로 만들리라 믿습니다. 혁신적인 서비스로 인류를 진보시키는 최신 기술 동향과 기업 사례를 소개하겠습니다. 네이버 기자페이지를 구독하시면 다음 기사를 쉽게 받아보실 수 있습니다.