AI빅뱅

IT 2023. 8. 14. 14:34

- 인공지능은 미적 가치를 평가하지 못한다. 자신이 탄생시킨 작품이 나 화풍에 대해 생각을 품지도 못하고 자기 작품을 감상하지도 못한 다. 럿거스 팀은 AICAN이 그런 평가를 할 수 있다고 주장했지만, 그 전제가 되는 시각 튜링 검사가 잘못 설계되어 있기에 사실상 평가한 건 인간인 럿거스 팀원이다. 작품들은 인공지능에 의해서가 아니라 작품을 감상하는 인간에 의해서 선택됐다. 인공지능에게 작품을 무작 위가 아닌 스스로 내린 평가 순서대로 내놓으라고 할 수 있을까? 자 기 작품 중 제일 좋은 것 10개를 순서대로 꼽아보라고 할 수 있을까? 적어도 AICAN의 작업에서는 그것이 불가능하다. AICAN은 알고리즘 상 예술에는 속하되 기존 스타일에서 최대한 벗어난 작품을 무작위로 생산하는 일을 넘어서는 작업은 하지 못하기 때문이다. 인간 예술가 는 다르다. 자신이 그린 작품 중 전시회에 걸고 싶은 작품 10개를 고 르라고 하면 잘 골라낸다. 이건 좋다, 이건 별로다, 이건 왜 그렸다 등 이유를 대면서 스스로 평가한다.
인공지능은 자기 작품은 물론 다른 작품도 평가하지 못한다. 인공 지능에게 미술사에 등장했던 수많은 작품 중에 어떤 것을 좋아하며, 왜 좋은지 10개만 꼽아 설명하라고 하면 어떨까? 미술사 속 작품뿐 아니라 동시대에 창작되고 있는 작품에 대해서도 이런 평가 작업은 불가능하다. 원리상 인공지능은 평가 기준을 자기 바깥에 둘 수밖에 없기 때문이다. 그 기준은 인간이 준 것이다. 나는 이 점을 논증한 바 있다(그림11 참조). 
역설적으로 들릴지 몰라도, 작품은 예술일 수 있지만 인공지능은 예술가가 될 수 없다. 이 점을 이해하기 위해 우리는 "하나의 작품은 작가가 그 안에서 자기 의도에 도달할 때 만족된다"라는 렘브란트 의 말을 참조할 수 있다. 이 말은 그 어떤 작가라도 충분히 동의할 수 있는 말이리라. 미술사가 곰브리치는 이 구절과 관련해서 "하나의 그림이 완성됐다고 판단할 권리는 화가에게 있다"라고 적절하게 해석 한다. 
작품에 서명하기 전에 작가는 충분히 숙고한다. 서명의 순간은 작 품이 완성되는 순간, 즉 작품이 완성됐다고 작가가 승인하는 순간이다. 이 순간에 주목하면 그 어떤 예술작품이건 작가의 평가를 통해 완성된다는 것을 알 수 있다. 이런 점에서 작품을 완성하는 건 작가의 권리다.
- 사실 GPT 같은 트랜스포머 모델이 준 충격은 커질수록 결과가 좋 다는 것이었다. 그래서 GPT가 버전을 올리거나 학습 언어 데이터 개 수와 매개변수의 개수를 늘릴 때 경탄을 낳았다. 그렇다면 계속 그 방 향으로 갈 때 성능이 얼마나 향상될까? 철학적으로 보면, 언어모델이 지닌 근본적 한계 때문에 성능 향상은 상당히 제한적이다. 세계와의 접점이 극적으로 증가하지는 못한다는 뜻이다.
- 더 많은 언어를 학습시키고 매개변수를 늘려도 언어모델은 결국 언어 세계에 머물 수밖에 없다는 점이 핵심이다. 챗GPT가 현재 생성하고 있는 언어는 이미 충분히 언어스럽다. 내용의 진실성 면에서 봤을 때, 유능한 '구라 생성기'이자 '아무 말 대잔치'라는 점이 문제일 뿐이 지. 언어 데이터는 이미 오류로 가득하며, 이는 인간과 언어의 본성과 관련된다. 인간이 원래 구라를 좋아한다는 점, 따라서 언어에 구라가 수두룩하다는 점을 외면해서는 곤란하다.
- 언어모델을 벗어나야 한다. 앞에서 이를 시맨틱웹과 존재론(온톨로 지) 문제라고 말했다. 언어가 존재론으로 확장되지 않는 한, 현재의 놀 라움은 조만간 진부함으로 바뀌고 말 것이다. 그렇다면 존재론으로 이행하려면 무엇이 필요할까? 짐작할 수 있겠지만, 세계를 분류하는 획기적인 틀이 필요하다. 설사 사물인터넷(Internet of Things 이 세계를 감지해 데이터를 확보할 수 있다 하더라도 그걸 분류해 넣어줄 범주 가 필요하다. 그런데 철학에서 존재론의 역사가 보여주듯이, 이건 굉장히 어려운 과제다. 인간이 과연 그런 일을 해낼 수 있을지조차 의문이다.
- 오라클 문제
초거대 언어모델이 내포한 한계는 정보의 단위인 '비트'와 물질의 단위인 '아톰'의 관계를 통해 진술할 수도 있다. 요컨대 비트는 언어고 아톰은 세계다.
디지털 세계는 비트 공간에 있다. 비트 공간의 가장 중요한 특징은 그곳이 자족적 공간이라는 점이다. 비트의 세계는 컴퓨터 파일로 이 루어져 있다. 파일이 생성되고, 저장되고, 전송되고, 조합된다. 비트 공간은 적절한 디지털 인프라만 갖춰지면 아톰 세계와 독립해서 구성 될 수 있다. 아주 정교한 컴퓨터 게임 공간을 떠올려 보라. 비트 공간 은 게임 공간과도 같다.
비트 공간이 아톰 세계와 접점이 있는지, 비트 공간 속의 아톰 세계 표상이 참인지 같은 문제는 '오라클 문제oracle problem'로 알려져 있 다. 이 문제가 가장 중요하게 논의된 곳은 블록체인 기술 영역이지만 모든 디지털 세계에 다 해당한다.
- 미국 표준 기술원이 발표한 '블록체인 기술 개관Blockchain Technology Overview'의 다음 구절은 오라클 문제를 잘 요약하고 있다.
"블록체인 네트워크는 자신의 디지털 시스템 내에 있는 데이터 에는 극히 잘 작동한다. 하지만 블록체인 네트워크가 현실 세계 와 접촉할 필요가 있을 때는 몇 가지 이슈(보통 오라클 문제라고 불 리는)가 발생한다. 블록체인 네트워크는 인간 입력 데이터뿐 아 니라 현실 세계에서 온 감각 입력 데이터 둘 다를 기록할 자리가 있을 수 있다. 하지만 입력 데이터가 실제 세계의 사건을 반영하는지 결정할 방법이 없는 것 같다. 
- 가장 중요한 점은 언어가 의미 네트워크라는 독자적 시스템이 아니 라는 지적이다. 언어는 항상 사회 속에서, 즉 사람들 사이에서 작동하 는데, 평서문이건 의문문이건 감탄문이건 명령문이건 관계없이 항상 '명령'의 형태로 작동한다. 명령은 모든 문장에 따라다니는 '잉여'다. 즉 모든 문장은 '문장+명령'이다. 앞에서 영화 <이미테이션 게임>의 한 장면을 소개했다. 동료가 튜링에게 "우리 점심 먹으러 가"라고 몇차례 말을 건넸을 때 튜링은 '명령'의 측면, 즉 "같이 점심 먹으러 가자"라는 요구의 의미를 놓쳤다. 잉여로서 수반되는 명령이 이 사례에서 잘 드러난다.
- LLM은 비트겐슈타인의 언어관에 부합하는 것 같다. LLM은 단어와 단어, 문장과 문장의 관계를 통계적으로 학습해 어떤 단어나 문장 다 음에 올 단어나 문장을 생성한다. 왜 그래야 하는지를 명시적으로 밝 힐 수 없다는 점에서 LLM은 비트겐슈타인이 말하는 언어 게임을 한 다. 다만 인공지능은 세계가 없기에 책상물림을 할 뿐이며, 따라서 삶 의 형식을 갖고 있지 않다. LLM이 삶의 형식 없이도 언어를 구사하는 것일까? 삶의 형식은 언어에서 애초에 필수적인 것이었을까? 비트겐슈타인 전문가가 성찰하고 답할 문제다.
- 들뢰즈와 과타리의 언어관은 우리에게 직관적으로 와닿는다. LLM 은 언어에서 핵심 요인을 결핍하고 있다. 바로 행위와 실천이다. 나아 가 들뢰즈와 과타리는 비언어적인 사고의 중요성을 강조한다. 대표적 으로 예술과 과학을 꼽는다. 과학이 수식과 법칙의 영역이기 때문에 LLM과 결합하는 것이 비교적 쉽다고 할 수 있을지 몰라도, 예술은 감 각을 통해 신경계에 직접 가닿기 때문에 LLM과 원리상 결합하지 못 한다. LLM에 몸을 주고 감각 기관을 붙이는 문제는 시간이 지난다고 해결될 것 같지 않다. 특히 촉각, 후각, 미각처럼 디지털화가 어려운 근접 감각은 더더욱 넘기 힘든 걸림돌이다.
- 개성, 스타일, 취향은 기계 번역 과정에서 상당히 뭉개져서 고유한 향 같은 게 사라지고 인공 향으로 진한 느낌만 주는 건 아닐까? 우리 가 언어라고 할 때 너무 평균치(그런 게 가능하다면)만 생각하는 것 같 다. 하지만 언어는 같은 단어와 문장이라 할지라도 누가 사용하느냐 에 따라 굉장히 달라진다. 이를 너무 단일한 것으로, 나와 너와 저사 람의 언어가 다 같은 것으로 여기면서 언어의 풍요로움을 느끼지 못하는 것은 아닐까?
- 인공지능은 인간이 준 과제에 대해서만 합리적 해답을 제출한다. 물론 동물에게도 해결해야 할 과제로서 문제가 닥친다. 차이는 동물 은 혼자서도 문제를 문제라고 감지한다는 점이다. 인공지능에게는 문 제를 문제라고 알려주어야 하지만, 동물은 스스로 문제를 문제라고 깨닫는다. 문제가 생긴 후에 지능이 작동하는 과정은 인공지능에게나 인간에게나 같다고 봐도 좋다. 현실적인 최상의 해결책을 찾으려 한 다는 점에서 '합리적'이라고 불러도 좋다. 인공지능은 최고의 확률을 찾아내고 최적화 솔루션을 제시할 수 있지만, 인간이 시킨 일에 대해 서만 그럴 수 있다.
- 인공지능의 핵심인 알고리즘은 자신의 고유한 의지로 목표를 세우 고 그 목표를 성취하는 게 아니다. 목표를 정하는 건 인간이다. '문제' 라는 관점에서 보면, 공학에서는 문제가 인간이 정해준 과제 형태다. 반면에 진화에서 문제는 생물이 환경에서 해결해야만 하는 것이다. 진화란 문제의 발생과 문제의 포착 그리고 문제의 해결 과정이라고해도 과언이 아니다. 그러니까, 공학과 진화에서는 각각 문제의 성격도 다르고 목표의 위상도 다르다.
기술적 분류를 떠나 '철학적으로' 조금 더 강하게 주장해 보면, 어 떤 유형의 기계학습이건 간에 '모든' 기계학습은 자율학습이 아니며 지도학습을 벗어나지 못한다. 학습 목표, 즉 해결해야 할 과제가 내부 가 아니라 외부에서, 말하자면 인간에 의해 주어져야 한다는 뜻이다.
- 지도학습이 현실의 데이터로부터 연결규칙pattern, function을 찾아 내는 과정이라면, 강화학습은 행동 규칙rule이 정해진 플레이에서 최 선의 수를 찾아내는 것을 목표로 한다. 가령 중국 바둑 규칙에 따라 바둑을 둔다고 할 때, 매번 수를 둘 때마다 승률이 가장 높은 수를 찾 아내는 것이다. 아니면 <스타크래프트>에서 최선의 키보드마우스 조작 방법을 찾는 작업이라 해도 좋다. 목표는 최고의 보상maximized reward이다. 바로 알파고가 최종적으로는 강화학습을 통해 만들어졌 다. 그것이 알파고 제로다.
알파고는 한국 사회에 인공지능 열풍을 일으키기도 했지만 심각한 오해도 함께 불러일으켰다. 강화학습에는 본래 데이터가 필요 없 다. 그런데 이세돌과 대국한 알파고, 이듬해 중국 기사들과 대국한 알 파고는 인간이 생산한 기보를 통해 학습했다. 데이터를 사용한 것이 다. 그렇게 기보 데이터를 학습해서 만들어진 최강자가 알파고 마스 터' 버전이다. 인간 프로 기사에게 완승했다. 한편 중국 바둑 규칙 내 에서 마음대로 플레이해서 승률이 높은 수를 찾는 훈련을 시켜 만들 어 낸 것이 '알파고 제로' 버전이다. 무려 자가 대국 2,900만 판을 두 게 했다. 그리고 역사적 대국이 벌어진다. '알파고 마스터' 대 '알파고 제로'의 대결. 알파고 제로는 89 대 11로 알파고 마스터를 이겼고, 바로 바둑에서 은퇴했다.
- 알파고 개발사 '구글 딥마인드'는 이세돌과 대국을 벌인 2016년에 는 데이터가 필요한 '지도학습형 기계학습'과 본래 데이터 없이 최 고 보상을 찾도록 하는 '강화학습형 기계학습을 섞어서 사용했지만, 2017년에는 '데이터 없이도 인공지능이 만들어질 수 있다는 것을 보 여주었다. 알파고는 원리상 처음부터 인간 기보 없이 만들어질 수 있 었고, 오히려 인간 기보에 포함된 나쁜 데이터가 걸림돌이 되어 알파 고 제로에게 패했다. 인간이 생산한 데이터가 더 이상 필요 없는 인 공지능이 등장했다는 오보는 강화학습과 지도학습을 혼동한 데서 비 롯됐다. '알파고'라는 이름이 계속 사용되면서 생긴 문제이기도 하다. '알파고'와 '알파고 제로'는 전혀 다른 프로그램인데 말이다.
알파고는 '신경망을 갖춘 '딥러닝'을 통해 만들어진 인공지능인 건 맞다. 하지만 이런 용어들은 최근 모든 기계학습 프로그램의 작동 원리이기도 하다. 더 중요한 건 기계학습 중에서 지도학습'과 '강화학 습'의 구별이다. 지도학습은 데이터 분석에 기반한 규칙 파악이 중요 하고, 강화학습은 데이터 없이 규칙에 따른 플레이에서의 최대 보상 이 중요하다. 알파고는 데이터 없이 개발될 수 있는 '강화학습 기반 인공지능이다. 처음에 데이터를 통해 학습했던 건 연구 초기 단계라 어쩔 수 없었을지라도, 개발사인 딥마인드나 언론이나 혼동의 여지를 제공한 건 분명 문제다. 오해를 바로잡았어야 한다.
- 챗GPT가 준 충격은 튜링 검사를 통과한 것처럼 보인다는 점이다. 자기가 잘 모르는 사안에 대해서는 인간이 답해주는 것처럼 느껴진 다. 물론 인간의 답변에도 오류가 있는 경우가 많다. 따라서 오류가 섞여 있다고 해서 GPT의 답을 기계가 한 답이라고 알아챌 가능성 도 크지 않다. 공학자들은 챗GPT가 튜링 검사를 통과했다고 자신 있 게 주장한다. 언어학자나 철학자의 견해는 조금 다르다. 튜링이 요구 했던 '심문'을 했느냐는 것이다. 튜링은 무심코 대화를 나눈 상대방이 인간인지 기계인지 잘 구별되지 않을 때를 상정한 것이 아니라 훨씬 엄밀한 심문 상황을 가정했다. 요컨대 심문자가 의심하면서 자기 전 문 지식을 놓고 캐묻는 상황이다. 사람들은 '심문'의 중요성을 간과해 왔다. 현시점에서 튜링 검사를 통해 진정으로 확인하려 했던 게 무엇인지 살피는 일이 우선해야 할 것이다. 이 책의 부록으로 튜링의 논문을 넣은 이유가 여기에 있다.
한편 딥엘, 구글 번역, 파파고 같은 인공지능 번역기는 설이 말한 중국어 방 에이전트와 꽤 닮아 보인다. 인공지능 번역기를 번역가나 통역사로 이해한다면 말이다. 그렇다면 인공지능 번역기는 언어의 의 미를 이해하는 걸까? 통념상 그렇다고 말하기는 어려우리라. 하지만 언어의 의미를 이해한다는 것과 번역이나 통역을 한다는 것이 같은 뜻인지는 물어볼 수 있다.
우리는 종종 생각 없는 사람이 많다는 당혹스러운 사실에 직면하곤 한다. 정말이지 자기 생각은 하나도 없으면서 녹음기처럼 특정한 말 을 되풀이하기만 하는 사람이 정말 많다. 심지어 최근에는 실제로는 인간인데도 불구하고 대화 상대자가 컴퓨터 프로그램이라고 판단한 사람이 실험 참가자의 42%라는 충격적인 연구도 보고되었다." 나아 가 사람에 따라 생각의 깊이도 천차만별이다. 그렇기에 '의미 이해'라 는 말의 다층성을 고려하지 않고 그 모두를 '생각하고 있다'는 증거로 삼기는 어렵다.
- 현상만 놓고 봤을 때 고민이란 생각의 교란이다. 생각이 교란된다 는 건 생각에 질서가 잡혀 있음을 전제한다. 요컨대 고민은 생각을 이 루고 있는 규칙과 질서의 교란이자 변경 과정이다. 고민 중에 있다는 건 생각이 아직 새 질서를 찾지 못했다는 뜻이고, 고민이 끝났다는 것 은 생각이 새 규칙에 의해 재편됐다는 걸 말한다. 우리가 운동을 해서 근육을 단련한다는 건 실은 근육섬유에 상처를 내고 아무는 과정에 서 더 굵어지게 하는 과정이다. 고민이 많다는 건 그만큼 생각이 성장 한다는 뜻이다. 물론 당사자로서는 '왜 나는 계속 고민하며 사나?'라 고 자괴감이 들지 몰라도, 거꾸로 보면 고민이 없다는 건 생각이 멈춰 있어서 새로운 생각을 하지 못한다는 뜻이기도 하다.
물론 고민을 사서 자청하는 사람은 없다. 고민은 문제가 포착됐음 을 뜻하며, 생각이 더 이상 전과 같을 수 없다는 징표다. 이런 점에서 고민은 일종의 탁월한 능력이다. 민감하지 않으면 고민도 없다. 인공 지능은 고민하지 않는다. 시키는 일을 아주 잘해낼 뿐이다. 이제 중요 한 차이가 드러났다. 생각의 고장은 사람에게만 있다. 요컨대 사람이 니까 고민한다.
고민이 시작이라면 다음 단계는 궁리다. 궁리란 해결책을 찾으려는 갖가지 노력과 시도다. 인공지능은 궁리하지 못한다. 주어진 명령을 따라갈 뿐이다. 자기 자신에게 명령할 수 있는 능력이야말로 자유라는 이름에 값한다. 자유란 추상적인 능력이 아니라 고민하고 궁리하 는 구체적 과정이다. 그러니 자유를 누린다는 건 무슨 뜻이랴? 고민 이 많다면 자유의 기회가 찾아왔다고 기뻐해야 하리라.
- 그렇다면 인공지능은 과연 그런 맥락을 파악하는가? '파악한다'고
할 수 없을 것 같다. 다음과 같은 연구 결과도 참고할 수 있다. 어떤 문장에서 영국인과 네덜란드인이 생각하는 속내가 무엇인지 비교한 논문'이 있다.
논문에 따르면, 일상생활에서 영국인이 "당신 말 들었어! hear what you say "라고 말하는 속내는 "내 의견은 완전히 달라" 이지만 네덜란 드인은 그 말을 "그가 내 관점을 인정했어"라고 알아듣는다. 또한 영 국인이 "내 잘못이 확실해I'm sure it's my fault"라고 말할 때 속내는 "네 잘못이야!"이지만, 네덜란드인은 그 말을 "그 사람 잘못이구나"라고 알아듣는다. 논문을 심사할 때 영국인이 "기술된 방법은 다소 독창적 이다The method described is rather original"라고 쓴다면 이는 "헛소리"라 는 뜻이지만 네덜란드인은 "훌륭한 방법"이라고 알아들으며, 영국인 이 "이번에 당신을 실망시켜 미안하다! am sorry to disappoint you on this occasion"라고 쓰면 "더는 신경 쓰지 않겠다"라는 뜻이지만 네덜란드 인은 "그 사람이 미안해하는군"으로 알아듣는다.
- 인공지능은 학습 자료를 통해서 어떤 것을 습득한다. 그런데 결국 인 간도 그 자료를 통해서 뭔가를 이해한다. 기계학습 과정도 실천해 보 고 안 되면 다시 수정하는 일이다. 일종의 시행착오인데, 이런 면도 인간과 비슷해 보인다. 하지만 이 과정에서 일어나는 일의 키워드를 '이해'로 잡아서는 안 될 것 같다. 인간의 이해도 인공지능보다 못한 수준이 태반이다. 대화하다 보면 그런 경우가 많다. 그렇다면 인간의 이해는 무엇일까?
인간에게는 두 개의 층layer 아니면 층위level가 같이 작동한다는 점 에서 출발해 보자. 한편에 바라보는 관찰자적인 '나'가 있고 다른 한 편에는 관찰되는 다양하고 잡다한, 때로는 분열되어 있고 때로는 수 렴된, 때로는 또렷하고 때로는 흐리멍덩한 어떤 '작용'이 있다. 이 두 층을 언어 활동에 적용해 보면, 의미론적인 수준이 하나 있고('작용'의 층) 의미가 오가는 배경이나 환경 또는 맥락에 해당하는 층(관찰하는 '나'의 층)이 있다. 인간에게는 그 두 층을 동시에 포착하는 능력이 있 다. 인공지능은 작동이 일어나는 한 층밖에 없다.
챗GPT의 문제는 같은 걸 물어봐도 다른 답을 계속 내놓고 다른 답 을 한다는 걸 알아채지도 못한다는 점이다. 알아채는 주체에 해당하 는 뭔가가 없다. 순전히 무작위random다. 챗GPT는 너무 쉽게 고친다. 고정된 몸이 없다. 생성 인공지능에서 생성물의 '변덕성'에 주목해야 한다. 미드저니, 달리, 스테이블디퓨전 같은 이미지 생성 인공지능도 그렇고 챗GPT 같은 언어 생성 인공지능도 그렇고 가끔은 번역 인공 지능도 그러한데, 조금만 다른 프롬프트를 주면, 아니 심지어 같은 프 롬프트를 주더라도 생성물이 크게 바뀐다. 인간으로 치면 매번 생각이 바뀐다고 해야 할 것이다. 인공지능은 휘발성이 강해 매번 새롭다. 학습된 모델 자체는 엄청난 잠재 기억 덩어리지만, 생성물이 변덕스럽게 달라지는 인공지능
- 인간의 생각은 쉽게 바뀌지 않는다. 인간은 고집스러운 동물이다.
인간은 습관을 가지고 있어서 계속 고집을 피운다. 반복하면 굳어지 고, 그게 습관이라고 많은 철학자가 말한다. 인간은 잘 안 고친다. 외부에서 주어진 정보가 달라져도, 가령 위조 뉴스가 위조된 것임을 확 실히 알려주는 증거를 접하더라도 인간은 좀처럼 생각을 바꾸지 않 는다. 고집은 인간의 중요한 '특징'이다. 
- 언어모델은 언어 데 이터 안에 있는 것만 처리합니다. 다음 단계는 멀티모달 형태로 가고 있습니다. 언어모델에서 멀티모달 초거대 언어모델로 간다는 게 무슨 변화를 의미할까요? 언어로 설명된 그림, 소리, 그 밖의 무엇들, 즉 인 간 세계에 존재하는 다양한 것을 언어로 설명된 범위 내에 묶어둔다 는 뜻입니다. 그래서 멀티모달 초거대 언어모델은 언어모델의 한계 안에서 작동할 수밖에 없습니다. 물론 수식이나 코딩은 기계가 잘 다 루는 영역이니까 별문제 없겠죠.
그럼 한계가 뭘까요? 근본적인 장벽이 뭘까요? 온톨로지, 철학에서 '존재론'이라고 부르는 영역입니다. 온톨로지 문제를 해결해야 한 단 계 비약이 가능합니다. '암묵지'란 설명하지 않더라도 알고 있는 지식 입니다. 암묵지는 정보의 구멍이 너무 많습니다. 인간은 동물이기 때문에 진화의 역사에서 구멍을 알아채고 대처하는 법을 충분히 알게 됐습니다. 반면 기계는 암묵지를 처리하는 데 어려움과 제약이 많습니다. 언어를 비롯해 인간이 집어넣어 준 것에 국한된다는 한계가 있 습니다. 인간이 주지 않더라도 스스로 입력할 수 있어야 합니다. 그래서 오류를 줄이려고 노력합니다. 사람들이 자꾸 고쳐주는 거예 요. 고쳐주면 언어모델이 현실 세계를 반영하며 수정될 거라고 기대 할 수 있습니다. 그런데 거기에도 한계가 있다고 생각합니다. 바로 비 언어 때문이죠. 그림을 보거나 음악을 들었을 때 그 경험을 언어로 번 역할 수 있을까요? 언어를 통해 다른 사람에게 전달할 수 있을까요? 기계는 주로 디지털 정보로 전환할 수 있는 시각과 청각 같은 '원격 감각'을 처리합니다. 언어를 비껴가거나 언어 바깥에 있는 현실의 많 은 부분은 기계가 도저히 알 수 없습니다. 또한 인간이나 생명체는 촉 각, 미각, 후각 같은 '근접 감각' 환경에서 살아갑니다. 이런 지점에서 기계에 비약적인 발전이 가능할지 의문입니다. 언어로 포착하고 설명 할 수 없는 영역이 존재하는 한 인공지능의 번역과 해석은 한계를 가 질 수밖에 없을 것입니다.
- 철학자 니체는 인간을 규정할 때 가장 중요한 특징으로 '자기 자신 을 넘어서는 존재'라는 점을 지적한다. 이게 '초인übermensch'의 의미 와도 관련된다. 인간이되 자기를 넘어서는 존재로서의 인간, 넘어가 기overcome oneself가 인간의 본질이다. 인간은 고인 물, 중심부, 평균 지대에 멈춰 있지 않고 바깥쪽으로 가서 뭔가 새로운 것을, 유산에 창 조적인 내용물을 계속 보태간다. 인간이 서로 새로운 걸 찾아서 인간 의 공동 저장소pool에다가 계속 넣어주는 존재라는 점이 중요하다. 그런 활동이 인간의 본질이라고 니체는 규정했다. 이게 왜 중요할까? 인간의 사고 활동, 생각 활동에서 가장 중요한 면은 남들이 하지 않았 던, 하고 있지 않은 활동을 한다는 점 아닐까? 이게 결국 생각과 이해 같은 말의 진정한 의미가 아닐까? 과학과 예술과 철학과 여타 온갖 종류의 발명과 창조 작업이 일어나는 지점은 유산의 바깥쪽이고 이와 관련된 활동이 생각과 이해의 본질이다. 유산의 안쪽, 즉 유산에 머무는 것은 생각과 이해의 본질이라고 할 수 없다. 결국 인간이 무엇인지 묻게 된다. 평균적인 것은 반복이다. 평균을 넘어서는 것을 사람들에 게 소개하는 활동이 인간의 생각과 이해의 진정한 의미라고 주장해 볼 수 있지 않을까?
인간이 만든 최고의 발명품 중 하나인 인공지능을 통해 인간이 무 엇인지 다시 발견하게 되었다. 기묘한 상황이다. 언어는 단순히 정보 를 주고받는 수단이 아니다. 기계 번역이나 GPT 같은 언어 생성 인 공지능은 언어에 확정적인 의미가 있다고 보고 정보 교환 수준에서 언어를 다룬다. 하지만 이를 넘어 뭔가 더 창조적인 활동을 수반하는 것이 언어의 더 본질적인 측면 아닐까? 따라서 본래 언어는 기계가 처리하는 수준 바깥쪽에 있다고 생각할 수 있다.
- 칙센트미하이는 "창의성이란 무엇인가 What is creativity?"라는 물음을 “창의성은 어디에 있는가 Where is creativity?"라는 물음으로 바꾸었다.' 물음의 변경은, 칙센트미하이 본인이 비유했듯, 가히 코페르니쿠스 혁명이라 부를 만하다. 왜냐하면 그 전까지 창의성은 개인의 심리 및 재능과 관련해서만 고찰됐을 뿐 사회적, 문화적 요인은 고려되지 않 았기 때문이다. 새로운 물음 아래에서 개인은 창의성의 중심에 있지 않고 오히려 다른 여러 요인과 얽혀 있는 한 요소에 불과한 것으로 새 롭게 자리매김한다. 개인을 중심으로 세상이 돌아가는 게 아니라 개인이 세상의 일부가 된다는 점에서 분명 코페르니쿠스 혁명에 해당한다.
칙센트미하이는 '창의성에 대한 시스템 관점A Systems View of Creativity'을 제안한 1988년의 저 유명한 논문 서두에서 다음과 같이 말한다.
"우리는 개인들과 그들의 작업을 그 행동이 수행되는 사회적, 역 사적 환경과 격리해서 창의성을 연구할 수 없다. 이는 우리가 창 의적이라고 부르는 것이 결코 개인의 행동만의 결과가 아니기 때 문이다. 그것은 다음 세 가지 주요 형성력의 산물이다. 첫째, 개인 들이 생산한 변이 중에서 보존할 가치가 있는 것을 선별하는 사 회 제도의 집합, 즉 현장(field), 둘째, 선별된 새로운 아이디어나 형태를 보존하고 다음 세대에 전달할 안정된 문화 영역(domain), 끝으로, 영역 안에서 약간의 변화, 즉 현장이 창의적이라고 여길 변화를 가져오는 개인(individual)이 그것이다. 그래서 "창의성 은 어디에 있는가?"라는 질문은 사람과 사람의 작업만 참조하여 답변할 수 없다. 창의성은 이 세 가지 시스템 간의 상호작용에서 비롯되는 현상이다. 혁신이 가능한, 문화적으로 정의된 행동 영 역이 없으면 사람은 시작조차 할 수 없다. 그리고 혁신의 적응성 을 평가하고 확정하는 동료 집단이 없으면 창의적인 것과 단순히 통계적으로 있을 법하지 않은 것 혹은 기이한 것을 구별하는 것이 불가능하다."
이에 대한 칙센트미하이의 설명은 시간이 가면서 더 정교하게 발전 되지만, 그렇긴 해도 처음의 아이디어에서 달라지는 건 거의 없다. 칙 센트미하이는 세 가지 시스템, 즉 현장, 영역, 개인을 함께 고려해야 창의성을 이해할 수 있다고 주장한다. 나아가 이 셋은 시간의 흐름에 따르는 나선형 상승 관계를 맺고 있다.
- 유전과 진화 둘 모두에 결정적인 건 환경이다. 시간의 흐름 속에서 환경이 대체로 일정하면 유전이 득세하고, 급변하면 진화가 가속한 다. 따라서 생물학에서 고려해야 하는 가장 중요한 요인은 바로 환경 이다(이것이 생태학 관점이다). 환경은 특정 종 혹은 지배적 개체군을 둘 러싼 먹이와 포식자 같은 유기 환경과 빛, 온도, 물, 광물 같은 무기 환 경 그리고 화산폭발, 지각변동 같은 지질학 요인과 운석의 충돌 같은 우주적 요인 등을 모두 포함한다. 물론 환경의 변화는 우발적이다. 변 화는 갑자기 일어난다. 이 때문에 험준한 산꼭대기에서 조개 화석이 발견되고 북극 빙하에서 얼어붙은 매머드가 발견된다.
- 유전의 관점에서 우연에 의존하는 돌연변이는 급변하는 환경에 대 처하기에 너무 느리다. 즉 진화 전에 멸종이 닥친다. 비교적 짧은 시 간에 급변에 대처하기 위해서는 생물에 어떤 힘이 내장되어 있지 않 으면 안 된다. 니체는 이 힘을 '권력의지der Wille zur Macht'라 불렀고, 베르그손Henri Bergson은 이를 '생의 약동elan vital'이라 불렀다.
진화와 유전이 어느 정도 보편적 지식이 된 후에, 생물학자이자 인류학자이며 사이버네틱스의 창시자 중 하나인 그레고리 베이트슨Gregory Bateson (1904~1980)은 이를 다른 방식으로 설명했다. 베이트슨의 이론을 풀어보면 다음과 같다. 생물은 진화 과정에서 형성된 유전자 풀pool에서 버릴 게 하나도 없다. 왜냐하면 생명은 유 전자에 기억된 유전체 기능의 도움을 받았던 적이 있기 때문이다. 따 라서 특정 유전 정보를 지금 당장 써먹지 않더라도, 마치 윈도 시스템 에서 여러 프로그램이 공동으로 활용할 수 있는 함수인 DLLdynamic- link library(동적 링크 라이브러리)처럼, 필요할 때 써먹기 위해 유전자 풀 에 담아놓은 채 특정 유전체의 작동 스위치만 꺼놓고 있을 뿐이다. 지 금 당장 사용하지 않더라도 DLL은 언젠가는 제 역할을 할 것으로 기대된다.
- 급변한 환경에 맞닥뜨려 생물이 동원하는 건 결국 생명이 발명하고 저장해 놓았던 유전자 풀 전체일 수밖에 없다. 특정 조건에서 생물은 생명으로서 유전자 풀 전체에 기억된 정보를 조합한다. 개별 유전자 내 유전체들의 활성화 스위치를 다시 끄고 켜는 방식으로 말이다. 만 일 생명이 이 일에 실패했다면 현존하는 생물은 없으리라. 이것이 생 명의 힘이다."
칙센트미하이가 베이트슨의 방식으로 '영역'을 설명했다면 훨씬 더 설득력이 있지 않았을까 생각한다. 베이트의 '유전자 풀'에 대응하 는, 몸 밖의 정보들로 이루어진 '문화 풀'이 바로 칙센트미하이가 강 조하려 한 '영역'이다. 나아가 '유전자 풀'이 없다면 '문화 풀'도 작동하지 않는다는 점은 명백하다. 유전자가 뒷받침하지 않는 표현형은 있을 수 없고, 문화란 몸 밖의 기억, 즉 '사회 기억'이기 때문이다. 문 화 풀 혹은 사회 기억을 유전자와 분리하려는 시도는 생물학, 고생물 학, 인류학 같은 분야의 고찰을 통해 볼 때 부적절하다. 문화의 발현 은 전적으로 유전자에 의존하며, 유전자의 잠재력은 문화에 내재하는 씨앗과도 같다. 
- 유전자가 뒷받침하지 않는 표현형은 있을 수 없고, 문화란 몸 밖의 기억, 즉 '사회 기억'이기 때문이다. 문 화 풀 혹은 사회 기억을 유전자와 분리하려는 시도는 생물학, 고생물 학, 인류학 같은 분야의 고찰을 통해 볼 때 부적절하다. 문화의 발현 은 전적으로 유전자에 의존하며, 유전자의 잠재력은 문화에 내재하 는 씨앗과도 같다. 
- 250년 동안 통용되어 온 '예술'과 '창작' 개념이 절대적일 수는 없 다. 역사에서 태어난 것은 역사로 마감될 운명이다. 그러나 근대의 발 명품인 예술이 가치가 있다고 평가하는 사람에겐 그 가치를 보존하 려는 쪽이 현명한 선택이다. 예술의 본질은 개념으로 발현되기 전부 터도 인간에게 내재하고 있던 미덕이었으리라. 다만 충분히 개화하지 못한 채 오래 잠자고 있었을 뿐. 아직 그 잠재력을 다 발휘하지 못한 예술은 계속 인간의 몫으로 남게 되는 것 같다. 인공지능의 등장은 이점을 새삼 확인시켜 준다. 그러나 그 잠재력은 결국 개인이 아닌 집단에서 협업을 통해 발휘된다는 점은 중요한 교훈이다.
특정한 시기, 비교적 좁은 지역에서 창의성이 꽃피었던 예들은 사 회적 창의성이 왜 중요한지 잘 보여준다. 기원전 5세기 아테네, 14세 기 피렌체, 17세기 암스테르담, 18세기 에든버러, 19세기 말 파리, 20 세기 초빈, 20세기 말 뉴욕, 21세기 초 서울 등 창의적 인물과 결과는 홀로 불쑥 등장하지 않았다. 왜 창의적 결과는 떼로 등장하는 걸까? 이 물음에 대한 답은 창의성은 본성상 사회적 현상이며 사회의 높은 자유도가 창의성을 배양한다는 데서 찾을 수 있을 것이다.
- 글을 쓰려면 무엇이 필요할까? 바로 생각이다. 생각의 출발은 풀어 야 하는 문제다. 문제를 풀려면 데이터가 필요하고, 데이터를 잘 이해 하고 요약하고 정리할 수 있어야 하며, 데이터를 압축해야 하고, 데이 터에서 플러스알파를 추출해야 한다. 데이터란 남들이 기왕에 찾아낸 해결의 단서다. 문제가 크게 새롭지 않다면 남들이 제공한 데이터를 적절히 조합해 해결책을 만들 수 있다. 그런데 문제가 새롭다면 데이 터를 토대로 자신이 직접 생각해야 한다. 새로운 문제여야 보람이 있 다. 지식이건, 콘텐츠건, 돈벌이건 간에 말이다.
글쓰기는 문제의 발견, 데이터 처리와 종합, 플러스알파의 추가, 멋진 표현이 합쳐지는 과정이다. 이 점에서 나는 글쓰기가 생각의 싸움을 위한 근력과 관련된다고 주장한 것이다. 챗GPT가 '좋은'(?) 답을 내놓게 하려면 질문을 잘해야 한다거나 답을 잘 유도해야 한다는 이 야기가 있다. 맞는 말이지만 조건이 있다. 질문자가 던지는 문제가 새 롭거나, 질문자가 전문 지식을 갖추고 있거나 답을 평가할 능력을 지 니고 있어야 그것이 성립한다. 즉 생각의 근력이 길러져 있어야 한다 는 말이다.
생각의 근력을 키우기 위해 지금까지 인류가 발견해 낸 가장 좋은 방법은 바로 글쓰기다. 글쓰기는 문제를 발견하고, 문제를 풀기 위해 데이터를 모으고 압축하고, 새로운 생각을 보태고, 자신과 남이 알아 들을 수 있게 표현하는 전 과정을 말한다. 

- 30년도 더 전에 경영학자 피터 드러커Peter Ferdinand Drucker는 열역학 제2법칙을 모르는 '인문학'과 셰익스피어를 읽지 않은 '과학'의 소통 단절 문제를 지적한 찰스 퍼시 스노Charles Percy Snow의 '두 문화' 이론을 비판하면서, '경영management'이 이미 이 단절을 극복하고 있 다고 주장한다.
"경영이란 전통이 리버럴아트Liberal Art라고 일컬어 온 바로 그것 이다. 경영은 지식의 근본, 즉 자신에 대한 지식, 지혜, 리더십을 다루기 때문에 '리버럴'이고 실천과 응용을 다루기 때문에 '아트' 다. 경영자는 인문학과 사회과학의 지식과 통찰, 즉 심리학과 철 학, 경제와 역사, 물리과학과 윤리를 끌어온다. 이에 그치지 않고 경영자는 이런 지식을 모아 환자를 치료하고, 학생을 가르치고, 교량을 건설하고, 사용자 친화적인 소프트웨어 프로그램을 설계 하고 판매하는 등의 성과와 결과를 창출해야만 한다. 이런 이유 들 때문에, 점차 경영을 통해 '인문학'은 인정과 영향력과 타당성 을 다시 획득하는 분과와 실천이 될 것이다."
- 서양인들은 그리스와 로마의 고전을 읽으며 삶을 배웠고, 자기 생 각을 글로 표현했다. 요컨대 읽기와 쓰기가 곧 인문학이었다. 다른 관 용어 중 하나는 '비판' 혹은 '비판적 사고'다. 일찍이 세네카도 강조 했고 르네상스 인문주의자도 강조했다. 비판에 대한 강조는 근대에 도 이어졌다. 칸트가 "계몽이란 무엇인가?"에 대한 답변』(1784)에서 잘 지적했듯이, 위기를 직시하며 위험을 무릅쓸 수 있는 성숙함과 용 기와 자유로운 정신, "과감히 알려고 하라!"라는 표어에 핵심이 있다. 이 흐름은 앞서 소개했던 '아르테스 리베랄레스', 즉 리버럴아츠로 수 렴될 수 있다.
아르테스 리베랄레스는 근래에 '자유학예學' 혹은 '자유 교양 학문'이라고 번역된다. 굳이 '인문학'이라는 이름을 고집하지 않아도 된다. 서양에서 그것은 공적인 삶에 능동적으로 참여하기 위해 자유 로운 인간이 필수적으로 알아야 할 이론적, 실천적, 실용적 앎의 총합 이었다. 이런 소양이 오늘날에도 필요한지는 물어볼 필요도 없다. 이를 갱신한 것이 '리버럴아츠'인데, 리버럴아츠칼리지를 단순 수용 하는 것이 아니라면 '새로움new'은 어디에 있을까? 가장 중요한 것은 인문학의 핵심에 있는 '언어'의 의미를 확장하고 재정의하려 한다 는 데 있다.
근대에 이르기 전까지 '언어'는 인간과 사회와 자연을 이해하는 가 장 중요한 도구였다. 세상은 느리게 변했고, 고전은 거듭 읽혔다. 갖 춰야 할 최초의 능력은 문해력이었다. 문해력이 있어야 기본 데이터 를 습득할 수 있었다. 하지만 근대는 이를 송두리째 뒤집었다. 언어로 표현하거나 포착할 수 없는 세계가 발견된 것이다. 갈릴레오가 말했 듯, 그것은 '수학의 언어로 쓰여 있다. 이제는 지식을 얻기 위해 언어 뿐 아니라 수학도 알아야만 한다. 그런데 오늘날에 와서는 언어와 수 학이 전부가 아니다. 오늘날 '문해력'의 용법은 매우 확장됐다. 데이 터를 얻고 내용을 이해하기 위해 곳곳에 이 용어가 쓰인다. '디지털 문해력', '통계 문해력', '과학 문해력', '미디어 문해력', '예술 문해력' 등 '문', 즉 '언어'가 지칭하는 바가 아주 다양해진 것이다. 
- 언어의 확장은 오늘날 아주 중요한 함의를 갖는다. 예를 하나 보겠 다. 기원전 3000년에 페니키아인이 지중해 전역에 걸친 최초의 무역 왕국을 건설할 수 있었던 출발점은 무엇일까? 비밀은 뿔고둥에 있었 다. 페니키아인은 뿔고둥의 독샘에 든 자줏빛 액체에서 진한 자주색 염료를 생산하는 법을 발견했다. 이 자원은 대단히 귀했고 비쌌고 쉽 게 고갈됐고 수요가 많았다. 얕은 물에서 6~7년을 사는 뿔고둥이 절 멸하면 더 깊은 물로 가야 했고, 페니키아인은 뿔고둥이 풍부했던 서 식지가 고갈될 때마다 해안을 따라 지중해 전역으로 이동했다. 이 과 정에서 튼튼한 배를 만들기 위한 원료인 레바논시다 숲을 착취했고, 항해와 원양 기술을 발달시켰으며, 바다를 장악하고 새로운 자원을 개척하며 새로운 거래처를 확보했다. 교역로를 보호하기 위해 전함을 포함한 상단을 운영했고, 저장 용기로서 유리 제품을 개발했으며, 늘 어난 노동 수요를 충당코자 노예를 거래했다. 이처럼 하나의 역사적 사건이 전개되는 과정을 이해하기 위해서는 지리, 생물학, 정치 등에 대한 이해가 필요하다. 뿔고둥과 레바논시다의 생태를 이해해야 페니 키아의 흥망성쇠가 비로소 해명될 수 있다.
오늘날 세상 돌아가는 것을 알기 위해서는 물론이려니와 자립적인 확장된 인문학은 진정한 의미의 융합 교육이다. 분리된 것을 합치 는 것이 아니라 처음부터 분리 자체를 인정하지 않는다. 그간 이루어 졌던 시도를 참조하면, 이를 '컴퓨팅 사고computational thinking와 창의 성의 결합', '디자인 사고design thinking의 함양', '플롯을 구성하고 내 용을 편집할 줄 아는 소양' 등 배타적이지만 않다면 뭐라 불러도 좋 다. 이 능력은 실용적이기도 하다. 기술력이 필요한 제품뿐 아니라 음 악, 영화, 드라마, 웹툰, 소설 등 문화 콘텐츠를 만드는 원동력이 될 수 도 있다. 레오나르도 다빈치처럼 인문, 예술, 과학, 기술 모두에 능한 '르네상스형 인간'을 길러내겠다는 지향을 가져야 한다.
확장된 인문학의 가장 큰 지향은 다음 세대 시민이 융복합 과업을 해낼 수 있도록 교육하는 일이다. 
- 영어로 된 지식 중심의 접근법을 벗어나야 합니다. 가령 "언어는 ~한 것이다"라고 말할 때 촘스키와 같은 사람의 이론, 영어로 된 지식 이 논의의 중심에 있습니다. 그런 식의 표준으로 아이디어가 한정되 는 것 같아요. 그런데 그것만으로는 분명히 한계가 있습니다. 기존의 룰은 영어로 구성돼 있습니다. 엔지니어도 영어로 사고합니 다. 거기에서 아이디어를 확장해 나간다. 정말 그걸로 충분한 걸까요? 이런 사고는 근본적인 편견을 벗어나지 못합니다. 영어권의 주류 사 고에서는 언어가 세계를 다 담고 있다고 전제하는 것 같아요. 그래서 초거대 언어모델로 모든 걸 다 해결할 수 있다는 추세죠. 그런데 메타 인공지능 연구소 수석 과학자인 얀 르쿤은 프랑스 사람입니다. 입장 이 조금 다르죠. "AI는 편견만 강화할 뿐 절대 큰 도약을 이룰 수 없 다"라는 얘기를 매일같이 합니다. 미국의 오픈AI 최고경영자인 샘 알 트만과는 인공지능에 대한 접근 방식에서 확연히 차이가 나는 거죠.
- 인문학은 언어 사랑이다. 지금은 언어 자체가 확장했다. 수학, 과학, 예술, 디지털도 이 시대의 언어다. 더 이상 전과 같은 언어가 아니다. 따라서 지금 인문학은 확장된 언어를 다뤄야 한다. 나아가 언어 활용 능력, 즉 문해력의 성격도 바뀌었다. 종래의 문사철 언어 말고도 확장 된 언어까지 다룰 수 있어야 한다. 결국 확장된 인문학으로 응대해야 한다. 인간의 조건이 바뀌었고, 인간도 재정립되는 중이다. 역사를 거슬러 돌아보면, 새로운 기술은 항상 두려움의 대상이었다. 그러나 인 간은 금세 적응하고 재탄생했다. 사진이 처음 등장했을 때의 충격은 결국 현대 회화를 낳는 방식으로 화해했다. 디지털 사진이 등장하자 그건 진짜 사진이 아니라는 반발이 컸다. 어느새 사진이 일상에 완전 히 스며든 기술이 되었다는 징표였다. 일은 늘 이런 식이었다. 인공지 능이 새로운 인간의 일상에 잘 스며들게 하는 과정에 인문학이 제 역 할을 해야 한다.

 

'IT' 카테고리의 다른 글

박태웅의 AI강의  (1) 2023.12.05
로봇의 지배  (0) 2023.08.14
슈퍼개인의 탄생  (0) 2023.07.14
AI 지도책  (0) 2023.07.06
챗GPT 질문이 돈이 되는 세상  (0) 2023.06.04
Posted by dalai
,