P : 오늘은 폭넓은 독서를 통해 최신 지식과 정보를 기업경영에 접목시키는 일을 십수 년째 꾸준히 해오신 고재웅 교수님을 모시고 AI(인공지능)의 최신 동향에 대해 알아보고자 합니다. 무슨 책을 들고 나오셨나요?
K : 인터넷을 통해 [Weekly Management]를 614호째 발행하고 있는 전 경복대 경영학부 교수 고재웅입니다. 오늘 소개해 드릴 책은 박태웅 녹색포럼 의장의 《AI 강의 2025》입니다. 부제가 “인공지능의 출현부터 일상으로의 침투까지 우리와 미래를 함께할 새로운 지능의 모든 것”(한빛비즈, 2024.09.30. 출간)이지요. 녹서포럼은 지금 우리 사회가 반드시 답해야 할 질문들, 정의 내려야 할 문제들을 드러내는 토론과 공론의 장이라고 해요. 박 의장은 2021년 정보통신분야 발전에 기여한 공로를 인정받아 동탑산업훈장을 받으셨어요.
P : 그렇다면 박태웅 의장이 답해야 할 질문은 AI의 최신 트렌드는 무엇인가, 전 세계적인 AI 경쟁이 벌어지고 있는 지금 우리는 무엇을 알고 준비해야 할 것인가”라 하겠습니다.
K : 오픈AI의 챗GPT가 출시된 게 2022년 11월 30일이니 생성형 AI가 등장한지 꼭 2년이 되었습니다. 그러나 ‘AI 쇼크’라 부를 정도로 세상을 변혁시키고 있어요. 이 책의 저자도 인기 직업인 변호사, 회계사, 의사가 소멸 대상이라고 보고 있습니다. 순식간에 인간보다 더 글을 잘 쓰고 문서요약이나 회의록 작성에 능하며, PT자료도 잘 만드는 생성형 AI를 모르면 누구나 도태될 취기에 처했습니다.
P : 그렇다면 우리가 반드시 알아야 할 AI 트렌드는 무엇인가요? AI 업계를 이끌고 있는 리더들은 무슨 생각을 하고 AI 관련 제품 개발에 나서고 있는가요?
K : 이 책은 진화를 거듭하고 있는 AI가 다음과 같은 6개의 트렌드를 보인다고 합니다.
① 모든 소프트웨어가 어떤 형태로든 AI와 연동하는 형태로 작동한다는 운영체제(OS)로서의 AI
② 정보를 더 이상 분류하지 않고, 검색을 하지 않아도 되는, 맥락을 이해하는 인터페이스
③ 도구처럼 '쓰는 것'이 아닌 '함께 하는‘ 파트너로서의 AI
④ 초기 챗GPT는 텍스트를 기반으로 했으나 새로 나오는 챗GPT는 이미지, 음성, 동영상도 함께 처리하는 멀티모덜(Multimodal) 데이터 처리
⑤ 더 저렴하고 빠르게 작동하는 더 작은(cheap fast small) 언어모델(SLM)을 쓰는 AI
⑥ 영화 속에 나올 법한 인간형 로봇 휴머노이드, 사람처럼 이해하고 판단하는 범용인공지능(AGI)으로의 발전 등으로 간추렸습니다. 이제는 사람이 알고리즘을 짜지 않고 강화학습, 모방학습, 전이학습 등으로 스스로 알아서 학습을 한 로봇이 코딩을 하게 된다는 말입니다.
휴머노이드를 만드는 또 하나의 특별한 이유가 있습니다. 이런 종류의 휴머노이드 로봇을 ‘몸을 가진(Embodied AI)’라고 부릅니다. ‘몸을 가진’이 무슨 뜻일까요? 인공지능이 제대로 ‘지능’이 되기 위해서는 ‘몸’을 가지고 있어야 한다고 주장하는 AI 과학자들이 있습니다. 그래야 인간 세계에 널리 쓰이는 모델(World Model)이 될 수 있다는 것입니다. 44쪽
P : 저는 윤석열 대통령이 2023년 초 “상사의 연설문도 챗GPT에게 맡기면 잘 쓴다. 그러니 공무원들은 연설문 작성보다 대민봉사 행정 같은 생산적인 업무를 해야 한다”고 했을 때 직감했어요. 전에 직장생활을 할 때 대표의 연설문을 쓰고, 수정 지시를 받아 또 고쳐쓰고 한 일이 많았거든요.
K : 거대 언어모델(LLM)의 등장으로 연설문이든 보고서든 서류작업이 달라졌어요. 챗GPT는 1750억 개의 매개변수, 5조 개의 문서, 1만 개의 A100 GPU로 학습을 했기에 어떤 단어가 주어지면 그 다음에 나올 말을 확률적으로 계산합니다. 그래서 질문(Prompt)의 취지에 맞는 가장 그럴듯한 말을 죽 내놓는 것이예요. 그러므로 없는 사실도 있는 것처럼 꾸며서 말하는 환각(Hallucination)은 True/False를 공부하지 않은 AI로서는 동전의 뒷면과 같아서 이것을 전혀 없앨 순 없어요. 이런 식으로 GPT-4는 미국 변호사 시험에서 상위 10%로 합격할 수 있었다고 해요.
P : 그럼 생성형 AI의 놀라운 능력과 최근의 기술흐름을 생각해 볼 때 AI가 인간보다 똑똑해질 수 있을까요? AI가 스스로 생각하고 판단하는 범용 인공지능(AGI)의 단계에 이르게 되면 무슨 짓을 할지 몰라요. 예컨대, 방의 CO2 낮춰라 했을 때 창문을 여는 게 아니라 CO2를 내뿜는 인간을 죽일 수도 있거든요.
K : 그런 일이 있어서는 안 되지요! 아직 AI는 똑똑하긴 하지만 멍청해요. 언어 능력은 굿이지만 어린애 같은 사고를 하기에도 불완전하거든요. AI의 대세인 오픈소스, 즉 코드를 베끼고 고치고 배포할 수 있게 함으로써 레시피가 공개되고 있으며, 막대한 자원소모로 인해 소형화로의 거센 흐름, 개인용 기기에의 장작, 인간의 뇌를 지향하는 것도 막을 수 없어요.
AI에서도 오픈소스의 움직임이 거셉니다. 메타가 2024년 7월 23일(미국 현지 시각) 라마3.1을 공개했습니다. 라마3.1은 4,050억 개의 매개변수를 가진 역대 최대 크기의 오픈소스 인공지능 모델입니다. 메타는 이 모델이 오픈AI의 GPT-4o, 앤스로픽의 클로드3.5 소네트보다 뛰어나다고 주장했습니다. GPT-4는 매개변수가 1조 8,000억 개쯤이라고 알려져 있습니다. 3분의 1도 안 되는 적은 크기로 비슷한 성능을 낸다는 것입니다. 181쪽
소형화의 흐름도 거셉니다. 오픈AI, 마이크로소프트, 구글, 메타, 애플 등이 잇따라 앞서 나온 더 큰 모델과 맞먹는 성능을 보이는 작은 모델들을 내놓고 있습니다. 소형화는 몇 가지 이유에서 필연이라고 할 수 있습니다. 우선 현재의 AI는 자원을 너무 많이 씁니다. 챗GPT를 학습시키는 데 3.7조 원이 들었다고 합니다. 라마3.1은 최신 GPU H100을 1만 6,000대나 돌렸습니다. 한 번에 몇천 가구분의 전기를 씁니다. 이래서는 수지를 맞추기가 어렵습니다. 196쪽
P : 이미 판도라 상자는 열려버린 거로군요! AI의 확산으로 도래할 충격에는 어떻게 대비해야 할까요?
K : AI는 데이터를 학습한 것을 가지고 결과물을 내놓는 것이므로 데이터가 오염되었거나 편향되어 있으면 차별이나 오류를 확대 재생산하게 될 것입니다.
메릴 스트립이 미국 대통령으로 나오는 <돈룩업>(2021) 영화를 보면 지구에 접근하는 혜성을 발견하지만 초기에 그 위험을 과소평가하고 거기 매장된 광물을 탐내다가 결국은 모두 실패하고 지구가 종말을 맞게 된다는 스토리입니다. 지구종말을 가져올 수 있는 재앙은 선제적으로 대응해야 한다는 큰 울림이 있는 메시지였어요.
P : 그렇다면 신뢰할 수 있는 AI는 어떻게 구축할 수 있을까요? 이 문제는 특히 EU에서 미국의 빅테크 기업에 맡길 수 없다는 입장이잖아요?
K : 네, 그래서 주요국에서는 AI 윤리 원칙과 법제화에 많은 노력을 기울이고 있습니다.
아실로마 AI 원칙(2017년 컨퍼런스에서 제정된 AI 개발의 목적, 윤리와 가치, 중기이슈 등에 대해 개발자들이 지켜야하는 23개 항의 준칙)에 따라 GPT-4의 훈련을 최소한 6개월은 즉시 중단하라는 성명을 2023년에 발표했지요. 그러나 규제에 관한 한 선출되지 않은 슈퍼 엘리트들, 예컨대 에릭슈미트는 '빠르게 행동하고 나중에 용서를 구하라'는 입장인데 이에 동조하여 자국의 AI 발전을 촉진한다며 先허용 後규제의 원칙을 따르는 나라도 있습니다. 효과적 이타주의, 효과적 가속주의라 할까 테크노 낙관주의 운동이 AI 개발과 사상까지 지배하는 것은 문제라고 봅니다.
인공지능 법안을 둘러싼 찬반양론이 보여주는 것은, 산업계가 거대 모델에 대한 규제가 필요하다고 때로 주장하고, 스스로 약속을 발표하기도 하지만 실제로 그 부담을 지는 것은 꺼린다는 것입니다. 또한 반대파들의 주장과 달리 이들이 실제 위험이 발생할 가능성에 대해서도 인식을 하고 있지 않은가 짐작할 만합니다. 힌턴 교수 등의 서한이 지적하듯이 “이러한 위험이 정말 공상과학소설에 불과하다면 기업은 이를 완화하기 위한 책임을 지는 데 아무런 문제가 없어야” 할 것이기 때문입니다. 347쪽
문제는 이들이 전 세계의 주요 거대 인공지능 개발을 도맡아 하고 있다는 것입니다. 말하자면 우리는 모르는 사이에 이들의 사상을 강요당하고 있다고 할 수도 있습니다. ‘선출되지 않은 슈퍼 엘리트들’이 단지 인공지능 개발만 독점하고 있는 게 아니라, 사상까지 독점해가고 있는지도 모른다는 것이지요. 인공지능의 발전에 대한 국제적 규제와 규범의 확립이 대단히 시급하고 중요한 또 다른 이유라고 할 것입니다. 363쪽
P : 우리 사회는 어떻게 대응해야 할까요? 이 책의 저자는 ’눈 떠보니 선진국‘이라는 저서도 냈는데 전 세계의 AI 경쟁에 뒤지지 않기 위해서는 무엇을 어떻게 해야 합니까?
K : 저자는 한국은 이런 관점에서는 문제가 많은 사회라고 진단합니다. 정부 자료는 아직도 hwp나 pdf 파일로 나옵니다. 공공 데이터를 공개한다고 했지만 공정하고 객관적인지 모르겠고, 암호화 정책도 한동안 공인인증서 하나만 통용시켰지요. 발등의 불인 AI 법안도 제대로 공론화되지 않고 있어요. AI 정책에 있어서도 포스코의 산학연 협업, 인트플로우 같이 축산농가의 힘이 되어주는 스타트업, 도시행정에 AI를 도입한 보스턴을 벤치마크해야 합니다.
한국 정부가 하지 말아야 할 일이 더 많아요. R&D 예산삭감 같은 단견적인 시행착오로 AI연구의 싹을 잘라서는 안될 것입니다. 이를테면 10만 양병설을 내세워 관련 학과를 신설하고 자격증을 만들자는 식은 곤란합니다. 우선 시급히 해야 할 일을 들자면 원천기술 확보를 위해 기초과학을 하는 인재를 육성하고 공무원들도 참여하는 관산학연 집단지성을 구축하는 일입니다.
AI는 '잠재된 패턴을 찾아내는 일을 하는 기계’라 보면 됩니다. 이런 일에 기계학습(machine learining)을 잘하는 AI를 쓰면 효율이 엄청나게 증폭되고, 생성형AI (GPT)를 쓰면 생산성이 크게 향상됩니다. 그러므로 AI가 내 일을 빼앗아가는 게 아니라 유능한 파트너로서 내 일을 도와주는 것으로 상대해야 합니다. 따라서 챗GPT에게 하는 질문도 구체적이고 용도에 맞춰 요령있게 하는 Prompt Engineering이 중요한 거죠. 우리나라는 방산 수출에서 입증되었듯이 세계 최고의 제조업 양산기술을 가진 나라 아닙니까! 눈 떠보니 선진국이 아니라 다시 눈 떠보니 AI 후진국이 되어서는 안 될 것입니다.
미국, 독일, 영국이 선진국이 되고, 세계 각국의 인재들을 모을 수 있는 것은 세계 최고 수준의 대학교와 연구소를 가지고 있기 때문입니다. 우리는 기초과학 학과가 단 하나라도 설치된 대학이 이제는 절반도 안 됩니다. 박사과정의 인재들은 국내 대학에 진학하지 않고 해외로 유학을 떠나는 것을 당연하게 여깁니다. 선진국들이 세계 최고의 대학들을 이용해 전 세계의 인재를 자석처럼 끌어들이는 것과 비교하면 서글플 정도로 초라합니다. 정부가 과학과 기술 정책의 호흡을 바꾸지 않고, 후발 추격국의 태도와 전략을 버리지 못한다면 우리는 머지않아 다시 ‘눈 떠보니 후진국’이 되어버릴지도 모릅니다. 395-396쪽
'People' 카테고리의 다른 글
[독서] 내 인생을 바꾼 책 한 권(2) (3) | 2024.11.23 |
---|---|
[독서] 내 인생을 바꾼 책 한 권 (1) (2) | 2024.11.22 |
[시인] 가을에 읽기 좋은 시 (1) | 2024.11.11 |
[성찰] 자유로운 영혼과 책임감 (9) | 2024.10.23 |
[Book's Day] 한강의 노벨상 수상과 번역의 힘 (1) | 2024.10.13 |