로봇의 지배

IT 2023. 8. 14. 14:35

- 딥러닝 프로젝트가 GPU로 이동하자 선도적인 기술 회사의 인공 지능 연구원들은 심층 신경망 구현을 활성화할 수 있는 소프트웨어 도구를 개발하기 시작했다. 구글, 페이스북, 바이두는 딥러닝에 맞 춰 무료로 다운로드해 사용하고 업데이트할 수 있는 오픈 소스 소 프트웨어를 출시했다. 가장 유명하고 널리 사용되는 플랫폼은 구글 이 2015년에 공개한 텐서플로TensorFlow다. 텐서플로는 딥러닝을 위한 포괄적인 소프트웨어 플랫폼으로, 실용적인 응용프로그램을 연구 하는 연구자와 엔지니어에게 심층 신경망을 구현하는 최적화된 코 드와 특정 응용프로그램을 보다 효율적으로 개발할 수 있는 다양한 도구를 제공한다. 텐서플로나 페이스북이 내놓은 경쟁 개발 플랫 폼인 파이토치 PyTorch 같은 패키지는 연구자들이 복잡한 세부 사항을 처리하기 위해 소프트웨어 코딩을 작성하고 테스트하는 수고를 덜 어주는 대신 시스템 개발동안 관점과 균형감을 유지하도록 돕는다. 딥러닝 혁명이 진행될수록 엔비디아와 여러 경쟁사는 딥러닝에 최적화된 더욱 강력한 마이크로프로세서 칩 개발을 위해 움직였다. 인텔, IBM, 애플, 테슬라는 이제 모두 심층 신경망에 필요한 연산 을 가속하도록 설계된 회로가 포함된 컴퓨터 칩을 설계한다. 딥러 닝 칩은 고성능 컴퓨터 서버부터 스마트폰, 자율 주행 자동차, 로봇 에 이르기까지 다양한 응용프로그램에 사용된다. 그 결과 처음부터 인공지능을 구현하도록 설계된 장치들의 네트워크가 계속 확장되 고 있다. 2016년 구글은 텐서처리장치 Tensor Processing Unit, TPU라는 자체제작한 맞춤형 칩을 발표했다. TPU는 구글의 텐서플로 소프트웨 어 플랫폼에서 개발된 딥러닝 응용프로그램을 최적화하기 위해 특 별히 설계됐다. 처음에 구글은 이 새로운 칩을 자체 데이터 센터에 사용했지만 2018년부터는 클라우드 컴퓨팅 서비스를 운영하는 서 버에 통합해 서비스 이용 고객들이 최첨단 딥러닝 기능에 쉽게 접 근하도록 했다. 이러한 발전은 인공지능의 능력을 광범위하게 배포 하는 가장 중요한 단일 통로가 돼 지배력 확장에 기여하고 있다.
- 고도의 기술적 배경이 필요하지 않은 다양한 사람들이 기술에 쉽 게 접근할 수 있는 새로운 도구들이 등장하면서 클라우드 기반 인 공지능이 범용 기술로 진화하는 속도가 빨라지고 있다. 텐서플로나 파이토치 같은 플랫폼 덕분에 딥러닝 시스템 구축이 쉬워졌지만, 아직은 주로 컴퓨터공학 박사 학위가 있거나 고도로 훈련된 전문가 들이 사용한다. 2018년 1월에 공개된 구글의 오토ML AutoML 같은 새 로운 도구는 기술적인 세부 사항을 대부분 자동화하고 진입 장벽 을 크게 낮춰 더 많은 사람에게 실질적인 문제 해결을 위해 딥러닝 을 활용할 기회를 제공한다. 오토ML은 본질적으로 인공지능을 더 많이 만들기 위해 인공지능을 배포하는 것이고 리페이페이 교수가 “인공지능의 민주화”라고 부르는 경향의 한 부분이다.
- 기술적 한계와 경제성 때문에 용도가 다양하고 생산적인 가정용 로봇이 나오기까지 시간이 오래 걸린다면, 여러 산업이나 상업 환 경에서는 정반대다. 공장이나 창고처럼 밀폐된 공간에서는 외부 세 계를 지배하는 예측 불가능하고 혼란스러운 요소를 제거하거나, 적 어도 최소화할 수 있다. 그래서 로봇은 한계를 피하고 기능은 활용 할 수 있는 시설에서 사람, 기계, 물건의 상호작용과 흐름을 재조직 하는 데 주로 사용된다. 로봇이 심부름을 제대로 하려면 냉장고 안 정확한 좌표에 그 물건이 틀림없이 있어야 하는 엄격한 조건을 요 구하는 가치 제안은 별다른 매력이 없어 보인다. 하지만 조금만 효 율이 높아져도 엄청난 재정적 이익을 얻을 수 있는 대규모 상업 환 경에서는 계산이 달라진다
- 로봇의 손 기술이 좋아지고 인간 수준의 능력에 근접한다고 해도 가정에서 소비자 제품으로 사용할 만큼 저렴해지기까지는 시간 이 오래 걸릴 것이다. 하지만 공장이나 물류 창고처럼 상황을 예측 할 수 있고 수익성과 효율성의 논리가 노동자와 기계 사이의 균형 을 바꿀 수밖에 없게 만드는 환경에서 파괴적 혁신은 훨씬 앞당겨 질 것이다. 앞에서 살펴본 것처럼 로봇이 물리적 조작에 능숙해지 고 유연성과 적응력까지 갖추면 새로운 제품을 공급하기 위해 신속 하게 생산을 전환하는 능력이 중요한 전자 조립 영역에서도 점차 사용될 것이다. 이 모든 것은 인공지능이 경제의 모든 측면에 촉수 를 뻗는 전기와 같은 동력으로 진화하는 이야기에서 중요한 장으로 기록될 것이다.
- 컴퓨터 사용과 인터넷의 놀라운 발전 그 자체로는 지난 수십 년 동안 보아온 광범위한 진보를 따라갈 수 없다는 사실은 피터 틸의 유명한 한마디로 압축할 수 있다. “우리는 하늘을 나는 자동차를 기대했지만, 결국 얻은 건 140자(트위터)뿐이다." 정보 기술은 계속 발 전하고 있지만, 우리가 상대적으로 정체된 시대를 살고 있다는 주 장은 경제학자 타일러 코웬Tyler Cowen이 2011년에 출간한 책 <거대 한 침체》 "와 로버트 고든Robert Gordon이 미국의 미래를 매우 비관적 으로 그린 2016년 책 《미국의 성장은 끝났는가> 65에 상세히 설명돼 있다. 두 책의 핵심 주장은 손쉽게 얻을 수 있는 기술혁신은 이미 1970년대에 대부분 거둬들였다는 것이다. 그 결과 우리는 지금 혁 신이라는 나무의 높은 가지에 닿으려고 애쓰는 기술적 소강상태에 있다. 코웬은 결국 기술 정체기를 벗어날 것으로 낙관한다. 하지만 고든은 그렇지 못해서, 나무 위쪽 가지에는 수확할 열매가 남지 않 았고 가장 위대한 발명은 이미 지나갔다고 말한다.
- 사실, 질문에 대한 더 완전한 대답은 실제로 정확히 무슨 일이 일 어나는지 모르고, 적어도 쉽게 설명할 수 없다고 인정하는 것이다. 어떤 프로그래머도 다양한 수준의 추상화나 네트워크 안에서 지식 이 표현되는 방식을 정의하려 하지 않는다. 이 모든 것은 유기적으 로 나타나고 표현은 시스템 전체에서 활성화하는 수백만 개의 상호 연결된 인공 뉴런을 통해 분산된다. 우리는 어떤 의미에서 네트워 크가 이미지를 이해한다는 것을 알지만 뉴런 안에서 무엇이 합쳐지 는지 정확히 설명하기는 매우 어렵거나, 심지어 불가능하다. 네트
워크의 다른 층으로 더 깊이 들어가거나 쉽게 시각화할 수 없는 유 형의 데이터에 작동하는 시스템을 분석할 때 더욱더 그렇다. 이러 한 상대적인 불투명함, 즉 심층 신경망이 사실상 '블랙박스'라는 우려는 8장에서 다시 다룰 중요한 문제 중 하나다
- 우리는 일반적으로 강화 학습을 바둑을 두거나 시뮬레이션으로 자동차를 운전하는 방법을 학습하는 것처럼 외부의 매크로 프로세 스macro process를 최적화하는 보상 기반 알고리즘 관점에서 설명한다. 그러나 하사비스는 강화 학습이 뇌 내부에서 중요한 역할을 하고 지능이 나타나는 데 필수일 수 있다고 지적한다. 강화 학습은 뇌를 호기심과 학습, 그리고 추론으로 이끄는 주요한 메커니즘일 수 있다. 예를 들어 뇌의 고유한 목적이 끊임없이 쏟아지는 엄청난 양의 원데이터를 단순히 탐색하고 순서를 정하는 것이라고 가정해보자. 하사비스의 말에 따르면, "우리는 새로운 것을 보면 뇌에서 도파민 이 분비된다는 것을 안다." 만약 뇌에서 "정보와 구조를 찾는 것 그 자체가 보상이라면 이는 매우 유용한 동기다."  다시 말해 우리 주 변 세계를 이해하도록 끊임없이 동력을 제공하는 엔진이 도파민 생성과 연결된 강화 학습 알고리즘일 수 있다.
- 인공지능 시스템이 펠로폰네소스 전쟁사같은 역사적 문헌을 읽을 수 있으면 여기서 배운 교훈을 현대의 지정학적 상황에 적용 할 수 있을까? 그럴 수 있다면 일반 인공지능으로 가는 길에서 가 장 중요한 이정표 중 하나인 전이 학습transfer learning에 도달하는 것이 다. 한 영역에서 정보를 학습한 다음 다른 영역에 이 정보를 성공 적으로 활용하는 능력은 인간 지능의 특징 가운데 하나이고 창의성 과 혁신에 필수다. 일반 기계 지능이 정말 유용하려면 단순히 교과 서 연습 문제에 대답하는 이상을 해야 한다. 학습한 내용과 발전시킨 통찰력을 완전히 새로운 과제에 적용할 수 있어야 한다. 인공지능 시스템이 이 일을 해내려면 현재 심층 신경망의 피상적인 수준 의 이해를 뛰어넘어 진정한 이해에 도달해야 한다. 사실 지식을 다 양한 영역과 새로운 상황에 적용하는 능력은 기계 지능의 진정한 이해 능력을 테스트하는 단 하나의 최고의 방법이 될 것이다.
- 핵심 질문은 인공지능의 영향으로 초래한 고용 시장 혼란이 이 와 비슷한 결과로 이어질지 여부다. 인공지능은 농업을 바꾼 농업 기술처럼 노동 절약형 혁신의 사례일까? 아니면 근본적으로 성격 이 다른 혁신일까? 사실 인공지능은 다르다는 것이 내가 해온 주장 이다. 그 이유는 이 책의 핵심 주제에 근거를 두고 있다. 인공지능 은 전기와 다를 바 없이 체계적인 범용 기술이며, 따라서 궁극적으 로 경제와 사회의 모든 측면으로 확장되고 스며들 것이다. 역사적 으로 노동시장의 기술적 혁신은 부문별로 영향을 끼치는 경향이 있었다. 농업 기계화는 수백만 개의 일자리를 사라지게 했지만, 제조업 부문의 성장으로 노동자를 흡수할 수 있었다. 마찬가지로 제조업이 자동화되고 공장이 저임금 국가로 이전하자 빠르게 성장하는 서비스업 부문이 실직한 노동자에게 기회를 제공했다. 반면에 인공 지능은 경제 모든 부문에 거의 동시에 영향을 끼칠 것이다. 가장 중 요하게는 여기에 미국 노동력의 대다수가 종사하고 있는 서비스업 부문과 화이트칼라 일자리가 포함될 것이다. 인공지능은 거의 모든 기존 산업에 촉수를 뻗어 변화시킬 것이고 미래에 새롭게 등장하는 산업은 처음부터 인공지능과 로봇공학의 최신 혁신을 포함할 것이 다. 다시 말해 수천만 개의 새로운 일자리를 제공하는 완전히 새로 운 부문이 기존 산업의 자동화로 일자리를 잃은 노동자를 어떻게든 흡수할 가능성은 매우 희박해 보인다. 오히려 미래 산업은 디지털기술, 데이터과학, 인공지능의 기반 위에 구축될 것이다. 따라서 엄청난 수의 일자리를 창출하지는 않을 것이다.
- 물론 경제는 고숙련· 고임금 일자리도 창출했지만 4년제 대학 학 위가 없는 미국 노동자의 4분의 3은 거의 접근할 수 없다. 대학 졸 업자 사이에도 실업률은 심각한 문제를 떠오르고 있다. 대학 졸업 자들이 카페나 패스트푸드점에서 일하면서 학자금 대출을 상환해 야 하는 부담에 시달리는 이야기는 너무 흔하다. 2020년 2월 뉴욕연방준비은행이 발표한 데이터에 따르면 최근 대학 졸업자의 41퍼센트가 대학 학위가 필요 없는 일에 종사하는 것으로 나타났다. 전 체 대학 졸업자의 3분의 1이 불완전 취업 상태에 있다. 경제 전반에 걸친 주요 실업률이 3.6퍼센트로 떨어졌지만 22세에서 27세 사이 의 최근 대학 졸업자 실업률은 6퍼센트를 넘는다." 다시 말해 통념상 교육을 강조하고 대학 등록을 확대해야 할 것 같지만 경제는 이미 배출된 대학 졸업자를 흡수할 만큼 숙련직 일자리를 충분히 만 들지 못하고 있다.
- 코로나바이러스 팬데믹의 여파로 미국과 중국 사이의 긴장이 크게 고조됐고, 중국 생산에 대한 과잉 의존이 잠재적으로 위협이 될수 있다는 인식이 널리 퍼졌다. 미국이 의료용품이나 의약품을 비롯한 중요한 전략 물자에 접근할 때, 코로나 위기 이전에도 두 나 라의 경제적 시너지와 상호 의존성이 (2006년 역사학자 니얼 퍼거슨Niall Ferguson은 이 현상에 '치메리카 Chimerica'라는 용어를 붙였다) 점차 느슨해지는 것은 분명했다. 긴장이 고조되고 양국 관계가 계속 분리되면 인공 지능 개발과 배치에 집중된 갈등과 경쟁이 중심 역할을 할 것은 피 할 수 없어 보인다. 인공지능이 체계적이면서 전략적인 기술이라는 점이 분명해지면서 양국 간의 전면적인 인공지능 군비경쟁의 우려는 진정한 위협으로 다가오고 있다.
- 얼굴 인식 시스템이 개인의 사생활을 위협할 가능성은 매우 현실 적이지만 이 기술을 적절하고 윤리적으로 배치해 얻는 분명한 혜택 도 중요하게 생각해야 한다. 우선 이 기술을 사용해 중범죄자들을 많이 검거할 수 있었다. 개인 정보 보호 문제는 어떤 이득을 얻더라 도 분명히 더 중대한 사안이지만 클리어뷰 앱의 경우, 위험한 범인 을 체포하는 데 일조했고, 특히 성범죄자나 아동 포르노 공급책을 파악하는 데 효과적이었다. 마찬가지로 공공장소에 배치된 얼굴인 식 시스템은 범죄율을 낮추는 면에서 실질적인 도움이 될 수 있다. 런던의 광역 경찰청이 이렇게 말하는 것도 틀리지는 않다. "우리는 모두 안전한 도시에서 살고 일하기를 바랍니다. 대중은 우리가 가 능한 기술을 널리 사용해 범죄자를 저지하기를 바랍니다."
사실 중국에서 실행 중인 광범위한 감시는 서양의 관점에서 보면 명백하게 억압적이지만 중국인 대부분이 꼭 부정적으로만 바라보 는 것은 아니다. 샹양의 주민들은 무단 횡단 시스템에 매우 협조적 이다. 이 시스템이 작동하면서 한때 위험했던 교차로가 지금은 매 우 질서 정연해졌기 때문이다. 중국에 사는 지인들과 개인적으로 대화를 나누면서 한 가지 공통점을 발견했다. 예전보다 범죄에 대 해 우려하기보다 안전하다고 느끼고, 특히 어린 자녀를 둔 부모들 이 안심하는 경우가 늘었다는 점이다. 이러한 잠재적 중요성도 과소평가해서는 안 된다. 대부분의 사람들은 이웃환경에서 느끼는 안정감을 높이 평가하고 이것은 육체와 정신 건강과도 상관관계가 있다. 중국이 미국을 분명히 앞서는 부분 중 하나가 바로 이 영역이다. "
- 딥페이크는 '적대적 생성 신경망 generative adversarial network, GAN'으로 알 려진 혁신적인 딥러닝으로 구동된다. GAN은 끊임없이 더 좋은 품 질의 시뮬레이션 음성이나 영상을 생성하도록 2개의 신경망을 일 종의 게임처럼 경쟁시킨다. 예를 들어 가짜 사진을 생성하도록 설 계된 GAN에는 두 가지 심층 신경망이 포함된다. 먼저 '생성자 generator'라고 불리는 신경망은 조작된 이미지를 만든다. 그리고 '판 별자discriminator'로 불리는 신경망은 실제 사진으로 구성된 데이터 세트를 학습한다. 생성자가 합성한 이미지는 실제 사진과 섞여 판별 자로 입력된다. 두 신경망은 생성자가 만든 사진을 판별자가 평가 해 진위를 가리는 경쟁을 진행하면서 계속 상호작용한다. 생성자의 목표는 가짜 사진을 만들어 판별자를 속이는 것이다. 두 신경망이 경쟁을 반복하면서 이미지 품질이 계속 향상되고 결국 시스템은 판 별자가 분석하는 이미지의 진위를 구분할 수 없는 일종의 평형 상 태에 도달한다. 이 기법을 통해 놀랍게 조작된 이미지를 얻을 수 있 다. 인터넷에서 'GAN 가짜 얼굴'을 검색하면 세상에 존재하지 않 는 인물을 완벽하게 그려낸 고해상도 이미지의 예를 수없이 찾을 수 있다. 판별자 신경망의 관점에서 보면, 사진들은 완전히 실제처 럼 보이지만 모두 디지털 천상계에서 만들어낸 이미지 합성이자 환상일 뿐이다.

- GAN은 몬트리올대학교의 대학원생이던 이언 굿펠로lan Goodfellow 가 개발했다. 2014년 어느 저녁, 굿펠로는 친구 몇 명과 동네 술집 에서 고품질 이미지를 생성할 수 있는 딥러닝 시스템을 만드는 문 제를 놓고 대화를 나눴다. 맥주를 셀 수 없을 만큼 마신 굿펠로는 GAN의 기본 개념을 제안했지만, 지나친 의심에 부딪혔다. 굿펠로 는 집으로 돌아와 곧장 코딩을 시작했다. 몇 시간 뒤 그는 최초로 작동하는 GAN을 만들어냈다. 이 성취는 굿펠로를 딥러닝 커뮤니 티의 전설적 인물로 바꿀 만했다. 페이스북의 최고 인공지능 과학 자얀 르쿤은 GAN을 "지난 20년간 딥러닝 분야에서 나온 가장 멋진 아이디어"라고 말했다. 굿펠로는 몬트리올대학교에서 박사 학위를 마친 다음 구글 브레인 프로젝트와 오픈AI를 거쳐 지금은 애플의 머신러닝 책임자로 일하고 있다. 그는 딥러닝 분야의 표준적인 대학 교재를 집필한 주요 저자이기도 하다.

- 딥페이크는 인간을 속이기 위한 것이지만 문제는 머신러닝 알고 리즘을 속이거나 제어하기 위해 데이터를 악의적으로 조작하는 것 과 관련이 있다. 이런 '적대적 공격adversarial attack'에서는 특별히 설계 된 입력이 공격자가 원하는 출력을 생성하도록 머신러닝 시스템에 오류를 일으킨다. 머신 비전의 경우 신경망이 이미지 해석을 왜곡 하도록 시야에 무언가를 배치한다. 유명한 사례를 소개하면, 연구 자들이 판다 사진을 딥러닝 시스템이 58퍼센트의 신뢰 수준으로 식 별하도록 한 다음, 이 이미지에 신중하게 조작한 시각적 노이즈를 추가해 판다를 긴팔원숭이로 99퍼센트 이상 확신하도록 시스템을 속이는 것이다. 하지만 소름 끼치는 사례도 있었다. 정지신호에 4개의 작은 직사각형 모양의 흑백 스티커를 추가해 자율 주행차에 사용되는 이미지 인식 시스템이 정지신호를 시속 70킬로미터 속도 제한 표시로 인식하도록 속인 경우다. 다시 말해 적대적 공격은 생 사가 걸린 중요한 결과를 쉽게 초래할 수 있다. 두 가지 경우 모두 인간 관찰자는 이미지에 추가된 정보를 알아차리지 못하거나 분명 히 그 정보 때문에 혼동하지 않을 것이다. 나는 이런 사례가 오늘날 심층 신경망이 얼마나 피상적이고 불안정하게 연결돼 있는지를 생 생히 보여준다고 생각한다.
인공지능 연구자들은 적대적 공격을 심각하게 받아들이고 치명 적인 취약점으로 간주한다. 이언 굿펠로는 머신러닝 시스템 내 보안 문제를 연구하고 가능한 보호 장치를 개발하는 데 연구 경력의 많은 부분을 쏟았다. 적대적 공격에 맞서 강력한 인공지능 시스템 을 개발하기란 결코 쉬운 작업이 아니다. 한 가지 접근 방법은 '적 대적 학습adversarial learning’으로, 시스템이 배치되면 신경망이 공격을 파악하기를 기대하며 의도적으로 적대적인 예시를 훈련 데이터 안 에 포함한다. 하지만 딥페이크와 마찬가지로 공격자가 항상 유리한 위치를 차지하는 확장 경쟁이 계속될 가능성이 있다. 굿펠로가 지 적했듯이 "다양한 경우의 적대적 공격 알고리즘에 대항할 수 있는 정말 강력한 방어 알고리즘을 설계한 사람은 아직 없다." 
- 적대적 공격은 머신러닝 시스템에 해당하지만, 사이버 범죄자나 해커, 외국 정보기관에 의해 악용될 수 있는 컴퓨터 취약점의 중요한 항목이 될 수 있다. 인공지능이 더 많이 사용되고 사물 인터넷을 통해 기기와 기계, 인프라가 더욱 연결될수록 보안 문제는 앞으로 훨씬 더 중요해지고 사이버 공격은 거의 확실히 더 자주 일어날 것 이다. 인공지능의 폭넓은 사용은 결과적으로 더 자율적이고 인간의 개입은 적은 시스템으로 나타날 것이며, 이런 시스템은 점점 더 사 이버 공격의 매력적인 표적이 될 것이다. 앞으로 자율 주행 트럭이 식품이나 의약품, 긴급 물자를 배송한다고 상상해보자. 이런 차량 을 멈춰 세우거나 배송을 오래 지연시키는 공격은 생명을 위협하는 결과를 초래할 수도 있다.
이 모든 것의 결론은 증가한 인공지능의 가용성과 의존도가 시스템의 보안 위험과 결부된다는 것이다. 여기에는 사회질서와 경제, 민주주의 제도와 함께 주요 인프라와 시스템에 대한 위협도 포함된 다. 보안 위험은 인공지능의 부상과 연관된 가장 중요한 단기적 위 험이다. 이런 이유로 견고한 인공지능 시스템 개발에 중점을 둔 연 구에 투자하고, 심각한 취약점이 발견되기 전에 적절한 규제와 보 호 장치를 마련하기 위해 정부와 민간 부문 간 효과적인 연합을 구 성하는 것이 중요하다.
- 인공지능과 머신러닝이 폭넓게 사용될수록 알고리즘이 생성하는 결과와 추천이 공정하다고 인식하고 알고리즘의 추론 과정을 적절 하게 설명할 수 있는 것이 중요하다. 이를테면 산업기계의 에너지 효율을 극대화하기 위해 딥러닝 시스템을 사용하고 있다면 아마 알 고리즘이 결과를 도출하는 세부 사항에는 특별한 관심을 기울이지 않을 것이다. 그저 최적의 결과만 바랄 뿐이다. 하지만 머신러닝이 형사적 판단이나 고용 결정, 주택 담보 대출 신청 절차 같은 분야에 적용될 때, 다시 말해 인간의 권리와 미래의 행복에 직접 영향을 끼 치는 중대한 결정에 적용될 때, 알고리즘의 결과가 인구통계 집단 에 편향되지 않고 이런 결과를 도출한 분석이 투명하고 공정하다는 것을 보여주는 것이 필요하다.
- 장 낙관적인 시나리오는 TV 프로그램 <스타트렉>에 나오는 세상이다. 희소성이 사라진 세상에서는 발전한 기술 덕분에 물질적 으로 풍요롭고 가난이 사라졌으며, 환경 문제도 해결되고, 대부분 질병도 치료할 수 있다. 단지 생존을 위해 보람 없는 일을 하며 힘 들게 고생할 필요도 없다. 사람들은 높은 수준의 교육을 받고 보람 있는 도전을 추구한다. 전통적인 직업이 없어졌다고 사람들이 게을 러지거나 삶의 의미나 인간의 존엄이 결핍되지 않는다. <스타트렉> 의 세계에서 사람들은 경제적 결과가 아니라 고유한 인간성에 가치를 둔다. 비록 <스타트렉>에 그려진 많은 기술이 실현 불가능하거 나 최소한 먼 미래에나 가능할 법해 보이지만 나는 이 프로그램이 합리적인 미래상을 보여준다고 생각한다. 발전한 기술이 광범위한 번영을 가져오고, 인류의 지상 과제를 해결하며, 우리를 다른 별에 도 데려다주지 않는가?
- 반면에 훨씬 더 디스토피아적인 미래는 영화 <매트릭스>에 가까 울 것이다. 내가 두려운 것은 인공지능이 우리를 노예로 만드는 것 이 아니라 현실 세계가 너무 불평등하고 더 나아질 기회가 부족한 나머지 많은 인구가 대안 현실로 도피하는 선택을 하는 것이다. 앞 으로 인공지능과 가상현실 기술의 발전 속도가 빨라질수록 두 기술 이 결합해 너무나도 매력적이고 현실적인 가상 세계를 만들 것이 고, 많은 사람에게 이 세계는 우리가 실제로 사는 세상보다 훨씬 우월해 보일 것이다. 사실, 2017년에 한 경제학자 그룹이 발표한 분석에 따르면 노동시장에서 소외된 젊은이들 가운데 점점 더 많은 수가 비디오게임에 엄청난 시간을 소비하고 있다. 가상 환경을 일 종의 마약으로 볼 수 있을 정도로 중독성을 높이는 기술이 곧 나타 날 것이다.
인공지능과 로봇 기술이 노동시장을 뒤흔들고 고용 기회가 사라 지거나 고용의 질이 감소한다면 정부는 결국 사회질서 유지를 위해 시민들에게 기본 소득과 같은 형태의 지원을 제공하게 될 것이다. 하지만 사람들이 교육을 우선시하고 목적의식을 유지하도록 보장하는 일을 정부가 소홀히 한다면 만연한 무관심과 이탈이라는 결과 를 불러올 것이다. 앞으로 사회는 소수 엘리트는 현실 세계에 탄탄 한 기반을 두지만, 대다수는 점점 더 기술적 환상 속으로 도피하거 나 범죄나 다른 형태의 중독에 빠지는 분열된 방향으로 갈 수도 있 다. 그렇다면 우리는 교육 수준이 낮은 인구, 포용적이고 효과적이 지 못한 민주주의, 느린 속도로 진행되는 혁신이라는 결과에 도달 할 수밖에 없을 것이다. 똑똑한 개인들도 더욱 매력적인 가상 세계 에 현혹돼 더는 현실 세계에서 살아남는 데 강력한 동기를 찾지 못 할 것이다. 이런 비관적인 시나리오에서 경제적·사회적 역풍은 우리가 직면한 전 지구적 도전을 극복하는 것을 더욱더 어렵게 만들 것이다.





'IT' 카테고리의 다른 글

오늘날 우리는 컴퓨터라 부른다  (2) 2023.12.07
박태웅의 AI강의  (1) 2023.12.05
AI빅뱅  (0) 2023.08.14
슈퍼개인의 탄생  (0) 2023.07.14
AI 지도책  (0) 2023.07.06
Posted by dalai
,

AI빅뱅

IT 2023. 8. 14. 14:34

- 인공지능은 미적 가치를 평가하지 못한다. 자신이 탄생시킨 작품이 나 화풍에 대해 생각을 품지도 못하고 자기 작품을 감상하지도 못한 다. 럿거스 팀은 AICAN이 그런 평가를 할 수 있다고 주장했지만, 그 전제가 되는 시각 튜링 검사가 잘못 설계되어 있기에 사실상 평가한 건 인간인 럿거스 팀원이다. 작품들은 인공지능에 의해서가 아니라 작품을 감상하는 인간에 의해서 선택됐다. 인공지능에게 작품을 무작 위가 아닌 스스로 내린 평가 순서대로 내놓으라고 할 수 있을까? 자 기 작품 중 제일 좋은 것 10개를 순서대로 꼽아보라고 할 수 있을까? 적어도 AICAN의 작업에서는 그것이 불가능하다. AICAN은 알고리즘 상 예술에는 속하되 기존 스타일에서 최대한 벗어난 작품을 무작위로 생산하는 일을 넘어서는 작업은 하지 못하기 때문이다. 인간 예술가 는 다르다. 자신이 그린 작품 중 전시회에 걸고 싶은 작품 10개를 고 르라고 하면 잘 골라낸다. 이건 좋다, 이건 별로다, 이건 왜 그렸다 등 이유를 대면서 스스로 평가한다.
인공지능은 자기 작품은 물론 다른 작품도 평가하지 못한다. 인공 지능에게 미술사에 등장했던 수많은 작품 중에 어떤 것을 좋아하며, 왜 좋은지 10개만 꼽아 설명하라고 하면 어떨까? 미술사 속 작품뿐 아니라 동시대에 창작되고 있는 작품에 대해서도 이런 평가 작업은 불가능하다. 원리상 인공지능은 평가 기준을 자기 바깥에 둘 수밖에 없기 때문이다. 그 기준은 인간이 준 것이다. 나는 이 점을 논증한 바 있다(그림11 참조). 
역설적으로 들릴지 몰라도, 작품은 예술일 수 있지만 인공지능은 예술가가 될 수 없다. 이 점을 이해하기 위해 우리는 "하나의 작품은 작가가 그 안에서 자기 의도에 도달할 때 만족된다"라는 렘브란트 의 말을 참조할 수 있다. 이 말은 그 어떤 작가라도 충분히 동의할 수 있는 말이리라. 미술사가 곰브리치는 이 구절과 관련해서 "하나의 그림이 완성됐다고 판단할 권리는 화가에게 있다"라고 적절하게 해석 한다. 
작품에 서명하기 전에 작가는 충분히 숙고한다. 서명의 순간은 작 품이 완성되는 순간, 즉 작품이 완성됐다고 작가가 승인하는 순간이다. 이 순간에 주목하면 그 어떤 예술작품이건 작가의 평가를 통해 완성된다는 것을 알 수 있다. 이런 점에서 작품을 완성하는 건 작가의 권리다.
- 사실 GPT 같은 트랜스포머 모델이 준 충격은 커질수록 결과가 좋 다는 것이었다. 그래서 GPT가 버전을 올리거나 학습 언어 데이터 개 수와 매개변수의 개수를 늘릴 때 경탄을 낳았다. 그렇다면 계속 그 방 향으로 갈 때 성능이 얼마나 향상될까? 철학적으로 보면, 언어모델이 지닌 근본적 한계 때문에 성능 향상은 상당히 제한적이다. 세계와의 접점이 극적으로 증가하지는 못한다는 뜻이다.
- 더 많은 언어를 학습시키고 매개변수를 늘려도 언어모델은 결국 언어 세계에 머물 수밖에 없다는 점이 핵심이다. 챗GPT가 현재 생성하고 있는 언어는 이미 충분히 언어스럽다. 내용의 진실성 면에서 봤을 때, 유능한 '구라 생성기'이자 '아무 말 대잔치'라는 점이 문제일 뿐이 지. 언어 데이터는 이미 오류로 가득하며, 이는 인간과 언어의 본성과 관련된다. 인간이 원래 구라를 좋아한다는 점, 따라서 언어에 구라가 수두룩하다는 점을 외면해서는 곤란하다.
- 언어모델을 벗어나야 한다. 앞에서 이를 시맨틱웹과 존재론(온톨로 지) 문제라고 말했다. 언어가 존재론으로 확장되지 않는 한, 현재의 놀 라움은 조만간 진부함으로 바뀌고 말 것이다. 그렇다면 존재론으로 이행하려면 무엇이 필요할까? 짐작할 수 있겠지만, 세계를 분류하는 획기적인 틀이 필요하다. 설사 사물인터넷(Internet of Things 이 세계를 감지해 데이터를 확보할 수 있다 하더라도 그걸 분류해 넣어줄 범주 가 필요하다. 그런데 철학에서 존재론의 역사가 보여주듯이, 이건 굉장히 어려운 과제다. 인간이 과연 그런 일을 해낼 수 있을지조차 의문이다.
- 오라클 문제
초거대 언어모델이 내포한 한계는 정보의 단위인 '비트'와 물질의 단위인 '아톰'의 관계를 통해 진술할 수도 있다. 요컨대 비트는 언어고 아톰은 세계다.
디지털 세계는 비트 공간에 있다. 비트 공간의 가장 중요한 특징은 그곳이 자족적 공간이라는 점이다. 비트의 세계는 컴퓨터 파일로 이 루어져 있다. 파일이 생성되고, 저장되고, 전송되고, 조합된다. 비트 공간은 적절한 디지털 인프라만 갖춰지면 아톰 세계와 독립해서 구성 될 수 있다. 아주 정교한 컴퓨터 게임 공간을 떠올려 보라. 비트 공간 은 게임 공간과도 같다.
비트 공간이 아톰 세계와 접점이 있는지, 비트 공간 속의 아톰 세계 표상이 참인지 같은 문제는 '오라클 문제oracle problem'로 알려져 있 다. 이 문제가 가장 중요하게 논의된 곳은 블록체인 기술 영역이지만 모든 디지털 세계에 다 해당한다.
- 미국 표준 기술원이 발표한 '블록체인 기술 개관Blockchain Technology Overview'의 다음 구절은 오라클 문제를 잘 요약하고 있다.
"블록체인 네트워크는 자신의 디지털 시스템 내에 있는 데이터 에는 극히 잘 작동한다. 하지만 블록체인 네트워크가 현실 세계 와 접촉할 필요가 있을 때는 몇 가지 이슈(보통 오라클 문제라고 불 리는)가 발생한다. 블록체인 네트워크는 인간 입력 데이터뿐 아 니라 현실 세계에서 온 감각 입력 데이터 둘 다를 기록할 자리가 있을 수 있다. 하지만 입력 데이터가 실제 세계의 사건을 반영하는지 결정할 방법이 없는 것 같다. 
- 가장 중요한 점은 언어가 의미 네트워크라는 독자적 시스템이 아니 라는 지적이다. 언어는 항상 사회 속에서, 즉 사람들 사이에서 작동하 는데, 평서문이건 의문문이건 감탄문이건 명령문이건 관계없이 항상 '명령'의 형태로 작동한다. 명령은 모든 문장에 따라다니는 '잉여'다. 즉 모든 문장은 '문장+명령'이다. 앞에서 영화 <이미테이션 게임>의 한 장면을 소개했다. 동료가 튜링에게 "우리 점심 먹으러 가"라고 몇차례 말을 건넸을 때 튜링은 '명령'의 측면, 즉 "같이 점심 먹으러 가자"라는 요구의 의미를 놓쳤다. 잉여로서 수반되는 명령이 이 사례에서 잘 드러난다.
- LLM은 비트겐슈타인의 언어관에 부합하는 것 같다. LLM은 단어와 단어, 문장과 문장의 관계를 통계적으로 학습해 어떤 단어나 문장 다 음에 올 단어나 문장을 생성한다. 왜 그래야 하는지를 명시적으로 밝 힐 수 없다는 점에서 LLM은 비트겐슈타인이 말하는 언어 게임을 한 다. 다만 인공지능은 세계가 없기에 책상물림을 할 뿐이며, 따라서 삶 의 형식을 갖고 있지 않다. LLM이 삶의 형식 없이도 언어를 구사하는 것일까? 삶의 형식은 언어에서 애초에 필수적인 것이었을까? 비트겐슈타인 전문가가 성찰하고 답할 문제다.
- 들뢰즈와 과타리의 언어관은 우리에게 직관적으로 와닿는다. LLM 은 언어에서 핵심 요인을 결핍하고 있다. 바로 행위와 실천이다. 나아 가 들뢰즈와 과타리는 비언어적인 사고의 중요성을 강조한다. 대표적 으로 예술과 과학을 꼽는다. 과학이 수식과 법칙의 영역이기 때문에 LLM과 결합하는 것이 비교적 쉽다고 할 수 있을지 몰라도, 예술은 감 각을 통해 신경계에 직접 가닿기 때문에 LLM과 원리상 결합하지 못 한다. LLM에 몸을 주고 감각 기관을 붙이는 문제는 시간이 지난다고 해결될 것 같지 않다. 특히 촉각, 후각, 미각처럼 디지털화가 어려운 근접 감각은 더더욱 넘기 힘든 걸림돌이다.
- 개성, 스타일, 취향은 기계 번역 과정에서 상당히 뭉개져서 고유한 향 같은 게 사라지고 인공 향으로 진한 느낌만 주는 건 아닐까? 우리 가 언어라고 할 때 너무 평균치(그런 게 가능하다면)만 생각하는 것 같 다. 하지만 언어는 같은 단어와 문장이라 할지라도 누가 사용하느냐 에 따라 굉장히 달라진다. 이를 너무 단일한 것으로, 나와 너와 저사 람의 언어가 다 같은 것으로 여기면서 언어의 풍요로움을 느끼지 못하는 것은 아닐까?
- 인공지능은 인간이 준 과제에 대해서만 합리적 해답을 제출한다. 물론 동물에게도 해결해야 할 과제로서 문제가 닥친다. 차이는 동물 은 혼자서도 문제를 문제라고 감지한다는 점이다. 인공지능에게는 문 제를 문제라고 알려주어야 하지만, 동물은 스스로 문제를 문제라고 깨닫는다. 문제가 생긴 후에 지능이 작동하는 과정은 인공지능에게나 인간에게나 같다고 봐도 좋다. 현실적인 최상의 해결책을 찾으려 한 다는 점에서 '합리적'이라고 불러도 좋다. 인공지능은 최고의 확률을 찾아내고 최적화 솔루션을 제시할 수 있지만, 인간이 시킨 일에 대해 서만 그럴 수 있다.
- 인공지능의 핵심인 알고리즘은 자신의 고유한 의지로 목표를 세우 고 그 목표를 성취하는 게 아니다. 목표를 정하는 건 인간이다. '문제' 라는 관점에서 보면, 공학에서는 문제가 인간이 정해준 과제 형태다. 반면에 진화에서 문제는 생물이 환경에서 해결해야만 하는 것이다. 진화란 문제의 발생과 문제의 포착 그리고 문제의 해결 과정이라고해도 과언이 아니다. 그러니까, 공학과 진화에서는 각각 문제의 성격도 다르고 목표의 위상도 다르다.
기술적 분류를 떠나 '철학적으로' 조금 더 강하게 주장해 보면, 어 떤 유형의 기계학습이건 간에 '모든' 기계학습은 자율학습이 아니며 지도학습을 벗어나지 못한다. 학습 목표, 즉 해결해야 할 과제가 내부 가 아니라 외부에서, 말하자면 인간에 의해 주어져야 한다는 뜻이다.
- 지도학습이 현실의 데이터로부터 연결규칙pattern, function을 찾아 내는 과정이라면, 강화학습은 행동 규칙rule이 정해진 플레이에서 최 선의 수를 찾아내는 것을 목표로 한다. 가령 중국 바둑 규칙에 따라 바둑을 둔다고 할 때, 매번 수를 둘 때마다 승률이 가장 높은 수를 찾 아내는 것이다. 아니면 <스타크래프트>에서 최선의 키보드마우스 조작 방법을 찾는 작업이라 해도 좋다. 목표는 최고의 보상maximized reward이다. 바로 알파고가 최종적으로는 강화학습을 통해 만들어졌 다. 그것이 알파고 제로다.
알파고는 한국 사회에 인공지능 열풍을 일으키기도 했지만 심각한 오해도 함께 불러일으켰다. 강화학습에는 본래 데이터가 필요 없 다. 그런데 이세돌과 대국한 알파고, 이듬해 중국 기사들과 대국한 알 파고는 인간이 생산한 기보를 통해 학습했다. 데이터를 사용한 것이 다. 그렇게 기보 데이터를 학습해서 만들어진 최강자가 알파고 마스 터' 버전이다. 인간 프로 기사에게 완승했다. 한편 중국 바둑 규칙 내 에서 마음대로 플레이해서 승률이 높은 수를 찾는 훈련을 시켜 만들 어 낸 것이 '알파고 제로' 버전이다. 무려 자가 대국 2,900만 판을 두 게 했다. 그리고 역사적 대국이 벌어진다. '알파고 마스터' 대 '알파고 제로'의 대결. 알파고 제로는 89 대 11로 알파고 마스터를 이겼고, 바로 바둑에서 은퇴했다.
- 알파고 개발사 '구글 딥마인드'는 이세돌과 대국을 벌인 2016년에 는 데이터가 필요한 '지도학습형 기계학습'과 본래 데이터 없이 최 고 보상을 찾도록 하는 '강화학습형 기계학습을 섞어서 사용했지만, 2017년에는 '데이터 없이도 인공지능이 만들어질 수 있다는 것을 보 여주었다. 알파고는 원리상 처음부터 인간 기보 없이 만들어질 수 있 었고, 오히려 인간 기보에 포함된 나쁜 데이터가 걸림돌이 되어 알파 고 제로에게 패했다. 인간이 생산한 데이터가 더 이상 필요 없는 인 공지능이 등장했다는 오보는 강화학습과 지도학습을 혼동한 데서 비 롯됐다. '알파고'라는 이름이 계속 사용되면서 생긴 문제이기도 하다. '알파고'와 '알파고 제로'는 전혀 다른 프로그램인데 말이다.
알파고는 '신경망을 갖춘 '딥러닝'을 통해 만들어진 인공지능인 건 맞다. 하지만 이런 용어들은 최근 모든 기계학습 프로그램의 작동 원리이기도 하다. 더 중요한 건 기계학습 중에서 지도학습'과 '강화학 습'의 구별이다. 지도학습은 데이터 분석에 기반한 규칙 파악이 중요 하고, 강화학습은 데이터 없이 규칙에 따른 플레이에서의 최대 보상 이 중요하다. 알파고는 데이터 없이 개발될 수 있는 '강화학습 기반 인공지능이다. 처음에 데이터를 통해 학습했던 건 연구 초기 단계라 어쩔 수 없었을지라도, 개발사인 딥마인드나 언론이나 혼동의 여지를 제공한 건 분명 문제다. 오해를 바로잡았어야 한다.
- 챗GPT가 준 충격은 튜링 검사를 통과한 것처럼 보인다는 점이다. 자기가 잘 모르는 사안에 대해서는 인간이 답해주는 것처럼 느껴진 다. 물론 인간의 답변에도 오류가 있는 경우가 많다. 따라서 오류가 섞여 있다고 해서 GPT의 답을 기계가 한 답이라고 알아챌 가능성 도 크지 않다. 공학자들은 챗GPT가 튜링 검사를 통과했다고 자신 있 게 주장한다. 언어학자나 철학자의 견해는 조금 다르다. 튜링이 요구 했던 '심문'을 했느냐는 것이다. 튜링은 무심코 대화를 나눈 상대방이 인간인지 기계인지 잘 구별되지 않을 때를 상정한 것이 아니라 훨씬 엄밀한 심문 상황을 가정했다. 요컨대 심문자가 의심하면서 자기 전 문 지식을 놓고 캐묻는 상황이다. 사람들은 '심문'의 중요성을 간과해 왔다. 현시점에서 튜링 검사를 통해 진정으로 확인하려 했던 게 무엇인지 살피는 일이 우선해야 할 것이다. 이 책의 부록으로 튜링의 논문을 넣은 이유가 여기에 있다.
한편 딥엘, 구글 번역, 파파고 같은 인공지능 번역기는 설이 말한 중국어 방 에이전트와 꽤 닮아 보인다. 인공지능 번역기를 번역가나 통역사로 이해한다면 말이다. 그렇다면 인공지능 번역기는 언어의 의 미를 이해하는 걸까? 통념상 그렇다고 말하기는 어려우리라. 하지만 언어의 의미를 이해한다는 것과 번역이나 통역을 한다는 것이 같은 뜻인지는 물어볼 수 있다.
우리는 종종 생각 없는 사람이 많다는 당혹스러운 사실에 직면하곤 한다. 정말이지 자기 생각은 하나도 없으면서 녹음기처럼 특정한 말 을 되풀이하기만 하는 사람이 정말 많다. 심지어 최근에는 실제로는 인간인데도 불구하고 대화 상대자가 컴퓨터 프로그램이라고 판단한 사람이 실험 참가자의 42%라는 충격적인 연구도 보고되었다." 나아 가 사람에 따라 생각의 깊이도 천차만별이다. 그렇기에 '의미 이해'라 는 말의 다층성을 고려하지 않고 그 모두를 '생각하고 있다'는 증거로 삼기는 어렵다.
- 현상만 놓고 봤을 때 고민이란 생각의 교란이다. 생각이 교란된다 는 건 생각에 질서가 잡혀 있음을 전제한다. 요컨대 고민은 생각을 이 루고 있는 규칙과 질서의 교란이자 변경 과정이다. 고민 중에 있다는 건 생각이 아직 새 질서를 찾지 못했다는 뜻이고, 고민이 끝났다는 것 은 생각이 새 규칙에 의해 재편됐다는 걸 말한다. 우리가 운동을 해서 근육을 단련한다는 건 실은 근육섬유에 상처를 내고 아무는 과정에 서 더 굵어지게 하는 과정이다. 고민이 많다는 건 그만큼 생각이 성장 한다는 뜻이다. 물론 당사자로서는 '왜 나는 계속 고민하며 사나?'라 고 자괴감이 들지 몰라도, 거꾸로 보면 고민이 없다는 건 생각이 멈춰 있어서 새로운 생각을 하지 못한다는 뜻이기도 하다.
물론 고민을 사서 자청하는 사람은 없다. 고민은 문제가 포착됐음 을 뜻하며, 생각이 더 이상 전과 같을 수 없다는 징표다. 이런 점에서 고민은 일종의 탁월한 능력이다. 민감하지 않으면 고민도 없다. 인공 지능은 고민하지 않는다. 시키는 일을 아주 잘해낼 뿐이다. 이제 중요 한 차이가 드러났다. 생각의 고장은 사람에게만 있다. 요컨대 사람이 니까 고민한다.
고민이 시작이라면 다음 단계는 궁리다. 궁리란 해결책을 찾으려는 갖가지 노력과 시도다. 인공지능은 궁리하지 못한다. 주어진 명령을 따라갈 뿐이다. 자기 자신에게 명령할 수 있는 능력이야말로 자유라는 이름에 값한다. 자유란 추상적인 능력이 아니라 고민하고 궁리하 는 구체적 과정이다. 그러니 자유를 누린다는 건 무슨 뜻이랴? 고민 이 많다면 자유의 기회가 찾아왔다고 기뻐해야 하리라.
- 그렇다면 인공지능은 과연 그런 맥락을 파악하는가? '파악한다'고
할 수 없을 것 같다. 다음과 같은 연구 결과도 참고할 수 있다. 어떤 문장에서 영국인과 네덜란드인이 생각하는 속내가 무엇인지 비교한 논문'이 있다.
논문에 따르면, 일상생활에서 영국인이 "당신 말 들었어! hear what you say "라고 말하는 속내는 "내 의견은 완전히 달라" 이지만 네덜란 드인은 그 말을 "그가 내 관점을 인정했어"라고 알아듣는다. 또한 영 국인이 "내 잘못이 확실해I'm sure it's my fault"라고 말할 때 속내는 "네 잘못이야!"이지만, 네덜란드인은 그 말을 "그 사람 잘못이구나"라고 알아듣는다. 논문을 심사할 때 영국인이 "기술된 방법은 다소 독창적 이다The method described is rather original"라고 쓴다면 이는 "헛소리"라 는 뜻이지만 네덜란드인은 "훌륭한 방법"이라고 알아들으며, 영국인 이 "이번에 당신을 실망시켜 미안하다! am sorry to disappoint you on this occasion"라고 쓰면 "더는 신경 쓰지 않겠다"라는 뜻이지만 네덜란드 인은 "그 사람이 미안해하는군"으로 알아듣는다.
- 인공지능은 학습 자료를 통해서 어떤 것을 습득한다. 그런데 결국 인 간도 그 자료를 통해서 뭔가를 이해한다. 기계학습 과정도 실천해 보 고 안 되면 다시 수정하는 일이다. 일종의 시행착오인데, 이런 면도 인간과 비슷해 보인다. 하지만 이 과정에서 일어나는 일의 키워드를 '이해'로 잡아서는 안 될 것 같다. 인간의 이해도 인공지능보다 못한 수준이 태반이다. 대화하다 보면 그런 경우가 많다. 그렇다면 인간의 이해는 무엇일까?
인간에게는 두 개의 층layer 아니면 층위level가 같이 작동한다는 점 에서 출발해 보자. 한편에 바라보는 관찰자적인 '나'가 있고 다른 한 편에는 관찰되는 다양하고 잡다한, 때로는 분열되어 있고 때로는 수 렴된, 때로는 또렷하고 때로는 흐리멍덩한 어떤 '작용'이 있다. 이 두 층을 언어 활동에 적용해 보면, 의미론적인 수준이 하나 있고('작용'의 층) 의미가 오가는 배경이나 환경 또는 맥락에 해당하는 층(관찰하는 '나'의 층)이 있다. 인간에게는 그 두 층을 동시에 포착하는 능력이 있 다. 인공지능은 작동이 일어나는 한 층밖에 없다.
챗GPT의 문제는 같은 걸 물어봐도 다른 답을 계속 내놓고 다른 답 을 한다는 걸 알아채지도 못한다는 점이다. 알아채는 주체에 해당하 는 뭔가가 없다. 순전히 무작위random다. 챗GPT는 너무 쉽게 고친다. 고정된 몸이 없다. 생성 인공지능에서 생성물의 '변덕성'에 주목해야 한다. 미드저니, 달리, 스테이블디퓨전 같은 이미지 생성 인공지능도 그렇고 챗GPT 같은 언어 생성 인공지능도 그렇고 가끔은 번역 인공 지능도 그러한데, 조금만 다른 프롬프트를 주면, 아니 심지어 같은 프 롬프트를 주더라도 생성물이 크게 바뀐다. 인간으로 치면 매번 생각이 바뀐다고 해야 할 것이다. 인공지능은 휘발성이 강해 매번 새롭다. 학습된 모델 자체는 엄청난 잠재 기억 덩어리지만, 생성물이 변덕스럽게 달라지는 인공지능
- 인간의 생각은 쉽게 바뀌지 않는다. 인간은 고집스러운 동물이다.
인간은 습관을 가지고 있어서 계속 고집을 피운다. 반복하면 굳어지 고, 그게 습관이라고 많은 철학자가 말한다. 인간은 잘 안 고친다. 외부에서 주어진 정보가 달라져도, 가령 위조 뉴스가 위조된 것임을 확 실히 알려주는 증거를 접하더라도 인간은 좀처럼 생각을 바꾸지 않 는다. 고집은 인간의 중요한 '특징'이다. 
- 언어모델은 언어 데 이터 안에 있는 것만 처리합니다. 다음 단계는 멀티모달 형태로 가고 있습니다. 언어모델에서 멀티모달 초거대 언어모델로 간다는 게 무슨 변화를 의미할까요? 언어로 설명된 그림, 소리, 그 밖의 무엇들, 즉 인 간 세계에 존재하는 다양한 것을 언어로 설명된 범위 내에 묶어둔다 는 뜻입니다. 그래서 멀티모달 초거대 언어모델은 언어모델의 한계 안에서 작동할 수밖에 없습니다. 물론 수식이나 코딩은 기계가 잘 다 루는 영역이니까 별문제 없겠죠.
그럼 한계가 뭘까요? 근본적인 장벽이 뭘까요? 온톨로지, 철학에서 '존재론'이라고 부르는 영역입니다. 온톨로지 문제를 해결해야 한 단 계 비약이 가능합니다. '암묵지'란 설명하지 않더라도 알고 있는 지식 입니다. 암묵지는 정보의 구멍이 너무 많습니다. 인간은 동물이기 때문에 진화의 역사에서 구멍을 알아채고 대처하는 법을 충분히 알게 됐습니다. 반면 기계는 암묵지를 처리하는 데 어려움과 제약이 많습니다. 언어를 비롯해 인간이 집어넣어 준 것에 국한된다는 한계가 있 습니다. 인간이 주지 않더라도 스스로 입력할 수 있어야 합니다. 그래서 오류를 줄이려고 노력합니다. 사람들이 자꾸 고쳐주는 거예 요. 고쳐주면 언어모델이 현실 세계를 반영하며 수정될 거라고 기대 할 수 있습니다. 그런데 거기에도 한계가 있다고 생각합니다. 바로 비 언어 때문이죠. 그림을 보거나 음악을 들었을 때 그 경험을 언어로 번 역할 수 있을까요? 언어를 통해 다른 사람에게 전달할 수 있을까요? 기계는 주로 디지털 정보로 전환할 수 있는 시각과 청각 같은 '원격 감각'을 처리합니다. 언어를 비껴가거나 언어 바깥에 있는 현실의 많 은 부분은 기계가 도저히 알 수 없습니다. 또한 인간이나 생명체는 촉 각, 미각, 후각 같은 '근접 감각' 환경에서 살아갑니다. 이런 지점에서 기계에 비약적인 발전이 가능할지 의문입니다. 언어로 포착하고 설명 할 수 없는 영역이 존재하는 한 인공지능의 번역과 해석은 한계를 가 질 수밖에 없을 것입니다.
- 철학자 니체는 인간을 규정할 때 가장 중요한 특징으로 '자기 자신 을 넘어서는 존재'라는 점을 지적한다. 이게 '초인übermensch'의 의미 와도 관련된다. 인간이되 자기를 넘어서는 존재로서의 인간, 넘어가 기overcome oneself가 인간의 본질이다. 인간은 고인 물, 중심부, 평균 지대에 멈춰 있지 않고 바깥쪽으로 가서 뭔가 새로운 것을, 유산에 창 조적인 내용물을 계속 보태간다. 인간이 서로 새로운 걸 찾아서 인간 의 공동 저장소pool에다가 계속 넣어주는 존재라는 점이 중요하다. 그런 활동이 인간의 본질이라고 니체는 규정했다. 이게 왜 중요할까? 인간의 사고 활동, 생각 활동에서 가장 중요한 면은 남들이 하지 않았 던, 하고 있지 않은 활동을 한다는 점 아닐까? 이게 결국 생각과 이해 같은 말의 진정한 의미가 아닐까? 과학과 예술과 철학과 여타 온갖 종류의 발명과 창조 작업이 일어나는 지점은 유산의 바깥쪽이고 이와 관련된 활동이 생각과 이해의 본질이다. 유산의 안쪽, 즉 유산에 머무는 것은 생각과 이해의 본질이라고 할 수 없다. 결국 인간이 무엇인지 묻게 된다. 평균적인 것은 반복이다. 평균을 넘어서는 것을 사람들에 게 소개하는 활동이 인간의 생각과 이해의 진정한 의미라고 주장해 볼 수 있지 않을까?
인간이 만든 최고의 발명품 중 하나인 인공지능을 통해 인간이 무 엇인지 다시 발견하게 되었다. 기묘한 상황이다. 언어는 단순히 정보 를 주고받는 수단이 아니다. 기계 번역이나 GPT 같은 언어 생성 인 공지능은 언어에 확정적인 의미가 있다고 보고 정보 교환 수준에서 언어를 다룬다. 하지만 이를 넘어 뭔가 더 창조적인 활동을 수반하는 것이 언어의 더 본질적인 측면 아닐까? 따라서 본래 언어는 기계가 처리하는 수준 바깥쪽에 있다고 생각할 수 있다.
- 칙센트미하이는 "창의성이란 무엇인가 What is creativity?"라는 물음을 “창의성은 어디에 있는가 Where is creativity?"라는 물음으로 바꾸었다.' 물음의 변경은, 칙센트미하이 본인이 비유했듯, 가히 코페르니쿠스 혁명이라 부를 만하다. 왜냐하면 그 전까지 창의성은 개인의 심리 및 재능과 관련해서만 고찰됐을 뿐 사회적, 문화적 요인은 고려되지 않 았기 때문이다. 새로운 물음 아래에서 개인은 창의성의 중심에 있지 않고 오히려 다른 여러 요인과 얽혀 있는 한 요소에 불과한 것으로 새 롭게 자리매김한다. 개인을 중심으로 세상이 돌아가는 게 아니라 개인이 세상의 일부가 된다는 점에서 분명 코페르니쿠스 혁명에 해당한다.
칙센트미하이는 '창의성에 대한 시스템 관점A Systems View of Creativity'을 제안한 1988년의 저 유명한 논문 서두에서 다음과 같이 말한다.
"우리는 개인들과 그들의 작업을 그 행동이 수행되는 사회적, 역 사적 환경과 격리해서 창의성을 연구할 수 없다. 이는 우리가 창 의적이라고 부르는 것이 결코 개인의 행동만의 결과가 아니기 때 문이다. 그것은 다음 세 가지 주요 형성력의 산물이다. 첫째, 개인 들이 생산한 변이 중에서 보존할 가치가 있는 것을 선별하는 사 회 제도의 집합, 즉 현장(field), 둘째, 선별된 새로운 아이디어나 형태를 보존하고 다음 세대에 전달할 안정된 문화 영역(domain), 끝으로, 영역 안에서 약간의 변화, 즉 현장이 창의적이라고 여길 변화를 가져오는 개인(individual)이 그것이다. 그래서 "창의성 은 어디에 있는가?"라는 질문은 사람과 사람의 작업만 참조하여 답변할 수 없다. 창의성은 이 세 가지 시스템 간의 상호작용에서 비롯되는 현상이다. 혁신이 가능한, 문화적으로 정의된 행동 영 역이 없으면 사람은 시작조차 할 수 없다. 그리고 혁신의 적응성 을 평가하고 확정하는 동료 집단이 없으면 창의적인 것과 단순히 통계적으로 있을 법하지 않은 것 혹은 기이한 것을 구별하는 것이 불가능하다."
이에 대한 칙센트미하이의 설명은 시간이 가면서 더 정교하게 발전 되지만, 그렇긴 해도 처음의 아이디어에서 달라지는 건 거의 없다. 칙 센트미하이는 세 가지 시스템, 즉 현장, 영역, 개인을 함께 고려해야 창의성을 이해할 수 있다고 주장한다. 나아가 이 셋은 시간의 흐름에 따르는 나선형 상승 관계를 맺고 있다.
- 유전과 진화 둘 모두에 결정적인 건 환경이다. 시간의 흐름 속에서 환경이 대체로 일정하면 유전이 득세하고, 급변하면 진화가 가속한 다. 따라서 생물학에서 고려해야 하는 가장 중요한 요인은 바로 환경 이다(이것이 생태학 관점이다). 환경은 특정 종 혹은 지배적 개체군을 둘 러싼 먹이와 포식자 같은 유기 환경과 빛, 온도, 물, 광물 같은 무기 환 경 그리고 화산폭발, 지각변동 같은 지질학 요인과 운석의 충돌 같은 우주적 요인 등을 모두 포함한다. 물론 환경의 변화는 우발적이다. 변 화는 갑자기 일어난다. 이 때문에 험준한 산꼭대기에서 조개 화석이 발견되고 북극 빙하에서 얼어붙은 매머드가 발견된다.
- 유전의 관점에서 우연에 의존하는 돌연변이는 급변하는 환경에 대 처하기에 너무 느리다. 즉 진화 전에 멸종이 닥친다. 비교적 짧은 시 간에 급변에 대처하기 위해서는 생물에 어떤 힘이 내장되어 있지 않 으면 안 된다. 니체는 이 힘을 '권력의지der Wille zur Macht'라 불렀고, 베르그손Henri Bergson은 이를 '생의 약동elan vital'이라 불렀다.
진화와 유전이 어느 정도 보편적 지식이 된 후에, 생물학자이자 인류학자이며 사이버네틱스의 창시자 중 하나인 그레고리 베이트슨Gregory Bateson (1904~1980)은 이를 다른 방식으로 설명했다. 베이트슨의 이론을 풀어보면 다음과 같다. 생물은 진화 과정에서 형성된 유전자 풀pool에서 버릴 게 하나도 없다. 왜냐하면 생명은 유 전자에 기억된 유전체 기능의 도움을 받았던 적이 있기 때문이다. 따 라서 특정 유전 정보를 지금 당장 써먹지 않더라도, 마치 윈도 시스템 에서 여러 프로그램이 공동으로 활용할 수 있는 함수인 DLLdynamic- link library(동적 링크 라이브러리)처럼, 필요할 때 써먹기 위해 유전자 풀 에 담아놓은 채 특정 유전체의 작동 스위치만 꺼놓고 있을 뿐이다. 지 금 당장 사용하지 않더라도 DLL은 언젠가는 제 역할을 할 것으로 기대된다.
- 급변한 환경에 맞닥뜨려 생물이 동원하는 건 결국 생명이 발명하고 저장해 놓았던 유전자 풀 전체일 수밖에 없다. 특정 조건에서 생물은 생명으로서 유전자 풀 전체에 기억된 정보를 조합한다. 개별 유전자 내 유전체들의 활성화 스위치를 다시 끄고 켜는 방식으로 말이다. 만 일 생명이 이 일에 실패했다면 현존하는 생물은 없으리라. 이것이 생 명의 힘이다."
칙센트미하이가 베이트슨의 방식으로 '영역'을 설명했다면 훨씬 더 설득력이 있지 않았을까 생각한다. 베이트의 '유전자 풀'에 대응하 는, 몸 밖의 정보들로 이루어진 '문화 풀'이 바로 칙센트미하이가 강 조하려 한 '영역'이다. 나아가 '유전자 풀'이 없다면 '문화 풀'도 작동하지 않는다는 점은 명백하다. 유전자가 뒷받침하지 않는 표현형은 있을 수 없고, 문화란 몸 밖의 기억, 즉 '사회 기억'이기 때문이다. 문 화 풀 혹은 사회 기억을 유전자와 분리하려는 시도는 생물학, 고생물 학, 인류학 같은 분야의 고찰을 통해 볼 때 부적절하다. 문화의 발현 은 전적으로 유전자에 의존하며, 유전자의 잠재력은 문화에 내재하는 씨앗과도 같다. 
- 유전자가 뒷받침하지 않는 표현형은 있을 수 없고, 문화란 몸 밖의 기억, 즉 '사회 기억'이기 때문이다. 문 화 풀 혹은 사회 기억을 유전자와 분리하려는 시도는 생물학, 고생물 학, 인류학 같은 분야의 고찰을 통해 볼 때 부적절하다. 문화의 발현 은 전적으로 유전자에 의존하며, 유전자의 잠재력은 문화에 내재하 는 씨앗과도 같다. 
- 250년 동안 통용되어 온 '예술'과 '창작' 개념이 절대적일 수는 없 다. 역사에서 태어난 것은 역사로 마감될 운명이다. 그러나 근대의 발 명품인 예술이 가치가 있다고 평가하는 사람에겐 그 가치를 보존하 려는 쪽이 현명한 선택이다. 예술의 본질은 개념으로 발현되기 전부 터도 인간에게 내재하고 있던 미덕이었으리라. 다만 충분히 개화하지 못한 채 오래 잠자고 있었을 뿐. 아직 그 잠재력을 다 발휘하지 못한 예술은 계속 인간의 몫으로 남게 되는 것 같다. 인공지능의 등장은 이점을 새삼 확인시켜 준다. 그러나 그 잠재력은 결국 개인이 아닌 집단에서 협업을 통해 발휘된다는 점은 중요한 교훈이다.
특정한 시기, 비교적 좁은 지역에서 창의성이 꽃피었던 예들은 사 회적 창의성이 왜 중요한지 잘 보여준다. 기원전 5세기 아테네, 14세 기 피렌체, 17세기 암스테르담, 18세기 에든버러, 19세기 말 파리, 20 세기 초빈, 20세기 말 뉴욕, 21세기 초 서울 등 창의적 인물과 결과는 홀로 불쑥 등장하지 않았다. 왜 창의적 결과는 떼로 등장하는 걸까? 이 물음에 대한 답은 창의성은 본성상 사회적 현상이며 사회의 높은 자유도가 창의성을 배양한다는 데서 찾을 수 있을 것이다.
- 글을 쓰려면 무엇이 필요할까? 바로 생각이다. 생각의 출발은 풀어 야 하는 문제다. 문제를 풀려면 데이터가 필요하고, 데이터를 잘 이해 하고 요약하고 정리할 수 있어야 하며, 데이터를 압축해야 하고, 데이 터에서 플러스알파를 추출해야 한다. 데이터란 남들이 기왕에 찾아낸 해결의 단서다. 문제가 크게 새롭지 않다면 남들이 제공한 데이터를 적절히 조합해 해결책을 만들 수 있다. 그런데 문제가 새롭다면 데이 터를 토대로 자신이 직접 생각해야 한다. 새로운 문제여야 보람이 있 다. 지식이건, 콘텐츠건, 돈벌이건 간에 말이다.
글쓰기는 문제의 발견, 데이터 처리와 종합, 플러스알파의 추가, 멋진 표현이 합쳐지는 과정이다. 이 점에서 나는 글쓰기가 생각의 싸움을 위한 근력과 관련된다고 주장한 것이다. 챗GPT가 '좋은'(?) 답을 내놓게 하려면 질문을 잘해야 한다거나 답을 잘 유도해야 한다는 이 야기가 있다. 맞는 말이지만 조건이 있다. 질문자가 던지는 문제가 새 롭거나, 질문자가 전문 지식을 갖추고 있거나 답을 평가할 능력을 지 니고 있어야 그것이 성립한다. 즉 생각의 근력이 길러져 있어야 한다 는 말이다.
생각의 근력을 키우기 위해 지금까지 인류가 발견해 낸 가장 좋은 방법은 바로 글쓰기다. 글쓰기는 문제를 발견하고, 문제를 풀기 위해 데이터를 모으고 압축하고, 새로운 생각을 보태고, 자신과 남이 알아 들을 수 있게 표현하는 전 과정을 말한다. 

- 30년도 더 전에 경영학자 피터 드러커Peter Ferdinand Drucker는 열역학 제2법칙을 모르는 '인문학'과 셰익스피어를 읽지 않은 '과학'의 소통 단절 문제를 지적한 찰스 퍼시 스노Charles Percy Snow의 '두 문화' 이론을 비판하면서, '경영management'이 이미 이 단절을 극복하고 있 다고 주장한다.
"경영이란 전통이 리버럴아트Liberal Art라고 일컬어 온 바로 그것 이다. 경영은 지식의 근본, 즉 자신에 대한 지식, 지혜, 리더십을 다루기 때문에 '리버럴'이고 실천과 응용을 다루기 때문에 '아트' 다. 경영자는 인문학과 사회과학의 지식과 통찰, 즉 심리학과 철 학, 경제와 역사, 물리과학과 윤리를 끌어온다. 이에 그치지 않고 경영자는 이런 지식을 모아 환자를 치료하고, 학생을 가르치고, 교량을 건설하고, 사용자 친화적인 소프트웨어 프로그램을 설계 하고 판매하는 등의 성과와 결과를 창출해야만 한다. 이런 이유 들 때문에, 점차 경영을 통해 '인문학'은 인정과 영향력과 타당성 을 다시 획득하는 분과와 실천이 될 것이다."
- 서양인들은 그리스와 로마의 고전을 읽으며 삶을 배웠고, 자기 생 각을 글로 표현했다. 요컨대 읽기와 쓰기가 곧 인문학이었다. 다른 관 용어 중 하나는 '비판' 혹은 '비판적 사고'다. 일찍이 세네카도 강조 했고 르네상스 인문주의자도 강조했다. 비판에 대한 강조는 근대에 도 이어졌다. 칸트가 "계몽이란 무엇인가?"에 대한 답변』(1784)에서 잘 지적했듯이, 위기를 직시하며 위험을 무릅쓸 수 있는 성숙함과 용 기와 자유로운 정신, "과감히 알려고 하라!"라는 표어에 핵심이 있다. 이 흐름은 앞서 소개했던 '아르테스 리베랄레스', 즉 리버럴아츠로 수 렴될 수 있다.
아르테스 리베랄레스는 근래에 '자유학예學' 혹은 '자유 교양 학문'이라고 번역된다. 굳이 '인문학'이라는 이름을 고집하지 않아도 된다. 서양에서 그것은 공적인 삶에 능동적으로 참여하기 위해 자유 로운 인간이 필수적으로 알아야 할 이론적, 실천적, 실용적 앎의 총합 이었다. 이런 소양이 오늘날에도 필요한지는 물어볼 필요도 없다. 이를 갱신한 것이 '리버럴아츠'인데, 리버럴아츠칼리지를 단순 수용 하는 것이 아니라면 '새로움new'은 어디에 있을까? 가장 중요한 것은 인문학의 핵심에 있는 '언어'의 의미를 확장하고 재정의하려 한다 는 데 있다.
근대에 이르기 전까지 '언어'는 인간과 사회와 자연을 이해하는 가 장 중요한 도구였다. 세상은 느리게 변했고, 고전은 거듭 읽혔다. 갖 춰야 할 최초의 능력은 문해력이었다. 문해력이 있어야 기본 데이터 를 습득할 수 있었다. 하지만 근대는 이를 송두리째 뒤집었다. 언어로 표현하거나 포착할 수 없는 세계가 발견된 것이다. 갈릴레오가 말했 듯, 그것은 '수학의 언어로 쓰여 있다. 이제는 지식을 얻기 위해 언어 뿐 아니라 수학도 알아야만 한다. 그런데 오늘날에 와서는 언어와 수 학이 전부가 아니다. 오늘날 '문해력'의 용법은 매우 확장됐다. 데이 터를 얻고 내용을 이해하기 위해 곳곳에 이 용어가 쓰인다. '디지털 문해력', '통계 문해력', '과학 문해력', '미디어 문해력', '예술 문해력' 등 '문', 즉 '언어'가 지칭하는 바가 아주 다양해진 것이다. 
- 언어의 확장은 오늘날 아주 중요한 함의를 갖는다. 예를 하나 보겠 다. 기원전 3000년에 페니키아인이 지중해 전역에 걸친 최초의 무역 왕국을 건설할 수 있었던 출발점은 무엇일까? 비밀은 뿔고둥에 있었 다. 페니키아인은 뿔고둥의 독샘에 든 자줏빛 액체에서 진한 자주색 염료를 생산하는 법을 발견했다. 이 자원은 대단히 귀했고 비쌌고 쉽 게 고갈됐고 수요가 많았다. 얕은 물에서 6~7년을 사는 뿔고둥이 절 멸하면 더 깊은 물로 가야 했고, 페니키아인은 뿔고둥이 풍부했던 서 식지가 고갈될 때마다 해안을 따라 지중해 전역으로 이동했다. 이 과 정에서 튼튼한 배를 만들기 위한 원료인 레바논시다 숲을 착취했고, 항해와 원양 기술을 발달시켰으며, 바다를 장악하고 새로운 자원을 개척하며 새로운 거래처를 확보했다. 교역로를 보호하기 위해 전함을 포함한 상단을 운영했고, 저장 용기로서 유리 제품을 개발했으며, 늘 어난 노동 수요를 충당코자 노예를 거래했다. 이처럼 하나의 역사적 사건이 전개되는 과정을 이해하기 위해서는 지리, 생물학, 정치 등에 대한 이해가 필요하다. 뿔고둥과 레바논시다의 생태를 이해해야 페니 키아의 흥망성쇠가 비로소 해명될 수 있다.
오늘날 세상 돌아가는 것을 알기 위해서는 물론이려니와 자립적인 확장된 인문학은 진정한 의미의 융합 교육이다. 분리된 것을 합치 는 것이 아니라 처음부터 분리 자체를 인정하지 않는다. 그간 이루어 졌던 시도를 참조하면, 이를 '컴퓨팅 사고computational thinking와 창의 성의 결합', '디자인 사고design thinking의 함양', '플롯을 구성하고 내 용을 편집할 줄 아는 소양' 등 배타적이지만 않다면 뭐라 불러도 좋 다. 이 능력은 실용적이기도 하다. 기술력이 필요한 제품뿐 아니라 음 악, 영화, 드라마, 웹툰, 소설 등 문화 콘텐츠를 만드는 원동력이 될 수 도 있다. 레오나르도 다빈치처럼 인문, 예술, 과학, 기술 모두에 능한 '르네상스형 인간'을 길러내겠다는 지향을 가져야 한다.
확장된 인문학의 가장 큰 지향은 다음 세대 시민이 융복합 과업을 해낼 수 있도록 교육하는 일이다. 
- 영어로 된 지식 중심의 접근법을 벗어나야 합니다. 가령 "언어는 ~한 것이다"라고 말할 때 촘스키와 같은 사람의 이론, 영어로 된 지식 이 논의의 중심에 있습니다. 그런 식의 표준으로 아이디어가 한정되 는 것 같아요. 그런데 그것만으로는 분명히 한계가 있습니다. 기존의 룰은 영어로 구성돼 있습니다. 엔지니어도 영어로 사고합니 다. 거기에서 아이디어를 확장해 나간다. 정말 그걸로 충분한 걸까요? 이런 사고는 근본적인 편견을 벗어나지 못합니다. 영어권의 주류 사 고에서는 언어가 세계를 다 담고 있다고 전제하는 것 같아요. 그래서 초거대 언어모델로 모든 걸 다 해결할 수 있다는 추세죠. 그런데 메타 인공지능 연구소 수석 과학자인 얀 르쿤은 프랑스 사람입니다. 입장 이 조금 다르죠. "AI는 편견만 강화할 뿐 절대 큰 도약을 이룰 수 없 다"라는 얘기를 매일같이 합니다. 미국의 오픈AI 최고경영자인 샘 알 트만과는 인공지능에 대한 접근 방식에서 확연히 차이가 나는 거죠.
- 인문학은 언어 사랑이다. 지금은 언어 자체가 확장했다. 수학, 과학, 예술, 디지털도 이 시대의 언어다. 더 이상 전과 같은 언어가 아니다. 따라서 지금 인문학은 확장된 언어를 다뤄야 한다. 나아가 언어 활용 능력, 즉 문해력의 성격도 바뀌었다. 종래의 문사철 언어 말고도 확장 된 언어까지 다룰 수 있어야 한다. 결국 확장된 인문학으로 응대해야 한다. 인간의 조건이 바뀌었고, 인간도 재정립되는 중이다. 역사를 거슬러 돌아보면, 새로운 기술은 항상 두려움의 대상이었다. 그러나 인 간은 금세 적응하고 재탄생했다. 사진이 처음 등장했을 때의 충격은 결국 현대 회화를 낳는 방식으로 화해했다. 디지털 사진이 등장하자 그건 진짜 사진이 아니라는 반발이 컸다. 어느새 사진이 일상에 완전 히 스며든 기술이 되었다는 징표였다. 일은 늘 이런 식이었다. 인공지 능이 새로운 인간의 일상에 잘 스며들게 하는 과정에 인문학이 제 역 할을 해야 한다.

 

'IT' 카테고리의 다른 글

박태웅의 AI강의  (1) 2023.12.05
로봇의 지배  (0) 2023.08.14
슈퍼개인의 탄생  (0) 2023.07.14
AI 지도책  (0) 2023.07.06
챗GPT 질문이 돈이 되는 세상  (0) 2023.06.04
Posted by dalai
,

슈퍼개인의 탄생

IT 2023. 7. 14. 12:25

- 아이폰이 탄생하는 순간 사람들이 멀티터치와 앱스토어에서 새 로운 경험을 한 것처럼, GPT가 탑재된 코파일럿을 경험한 순간 이 전의 모든 인터넷 기반의 생산성 도구들은 진부하게 느껴질 것이 다. 생성 인공지능이 기존의 도구와 만나 완전히 새로운 경험을 만 드는 중이다.
코파일럿 발표 5일 후 3월 21일, 마이크로소프트는 오픈AI의 이 미지 생성 인공지능 프로그램 '달리 DALL-E'를 빙과 엣지 브라우저에 적용한 '빙 이미지 크리에이터 Bing Image Creator'를 발표했다. 이제 채 팅창에 원하는 그림을 그려달라고 텍스트를 입력하거나, 음성으로 말하면 내가 원하는 그림이 나온다.
GPT의 불씨가 브라우저, 검색 엔진인 빙, 운영 체제인 윈도우, 생산성 도구인 워드, 엑셀, 파워포인트, 팀즈 등 계속 다른 도구에 붙고 있다. 프로메테우스를 장착한 마이크로소프트의 빙은 2023년 3월 기준, 하루 순 이용자가 1억 명을 넘어섰다. 1개월 만의 성과 다. 특히 주목할 점은 이용자 중 3분의 1이 빙을 처음 사용했다는 것이다. 마이크로소프트는 PC뿐 아니라 스마트폰의 빙 앱에도 인 공지능을 탑재하며 사용자를 늘리고 있다. 2022년 빙의 모바일 앱 다운로드 수는 80만 건이였으나, 오픈AI 챗GPT와 통합을 발표 한 후 일주일 동안 75만 건이 다운로드되었다. 가상의 불이 번지기 시작했다.
- 인공지능 기업 '스케일AI'에서 프롬프트 엔지니어로 일하는 라일리 굿사이드는 "프롬프트 엔지니어는 인간과 기계의 마음이 만나는 장소에서 소통하는 방식을 찾는 사람이며, 인간이 추론할 수 있고 기계가 따를 수 있는 언어를 만드는 이 직업은 사라지지 않을 것"이라고 말했다.
물론 반대 시각도 존재한다. 현대 언어학의 최고 거장인 노엄 촘스키 Noam Chomsky는 챗GPT와 같은 생성 언어 모델 기반의 인공지 능에 대해 부정적 의견을 제시했다. 촘스키는 "챗GPT와 같은 챗봇 은 코드를 작성하거나 여행을 계획하는 데는 유용할 수 있지만, 독 창적이고 심층적이며 잠재적으로 논쟁의 여지가 있는 토론은 결코 할 수 없을지도 모른다. 비록 초기 단계지만 인간 지능과 동등하거 나 능가할 수 있는 AI는 아직 멀었다"고 말했다.
- 인터넷 검색 서비스가 등장했을 때 인터넷 검색 자격증도 생기며 주목받았으나 지금은 그 의미가 퇴색했다는 의견도 존재 한다. 하지만 중요한 건 인터넷 시대에 검색 역량은 이미 필수라는 것이다. 고액 연봉을 받든, 필수 역량이 되든 새로운 미래가 시작 되고 있음에 유의할 필요가 있다.
현재 프롬프트 역량을 보유한 플랫폼 스타트업들이 막 출현 중 이며, 이들 중 투자유치를 통해 새롭게 비상할 기업이 생길 것이 다. 규모는 작지만 이 기업들이 성장하는 모습에서 새로운 투자 기회를 찾는 노력도 필요할 것이다.
- 2023년 2월 미국 저작권은 이미지 생성 인공지능 미드저니로 만들어진 디지털 만화, <여명의 자리야 Zarya of the Dawn>에서 크리스 카슈타노바 Kris Kashtanova 작가가 쓴 글, 이미지의 선택과 배치는 저작 권이 인정된다고 통보했다. 인공지능과 협업하는 새로운 디지털 만화 <여명의 자리야>는 작가가 대사를 쓰면, 미드저니가 그림을 생성하고 작가가 이를 배치하는 방식으로 제작됐다. 인공지능이 생성한 이미지에는 저작권을 인정하지 않았지만, 작가가 기여한 부분에는 저작권을 인정한 것이다. 미국 저작권청의 이번 결정은 최근 미드저니나 챗GPT 등 이미지나 텍스트 등 콘텐츠를 만들어내는 생성형 인공지능 관련 저작권과 관련해 처음 내린 것으로 알려 졌다.
- 2019년 매사추세츠 대학교는 초거대 인공지능 모델을 학습하는 데 이산화탄소가 얼마나 배출되는지 분석했다. 그 결과, 평균 미국 자동차 평생 배출량의 거의 5배에 해당하는 62만 파운드 이상의 이 산화탄소를 배출한다는 사실을 발견했다.
연구진은 초거대 인공지능 분야에서 두각을 내는 네 가지 모델, 즉 트랜스포머 · ELMOBERT.GPT-2를 대상으로 분석한 결과 인공지능 훈련에 드는 계산 및 환경 비용이 모델 크기에 비례해 증가하다가 모델의 최종 정확도를 높이기 위한 일종의 정제 작업을 거칠 때 폭발적으로 증가한다는 사실을 밝혀냈다. 중요한 것은, 이 수치는 탄소 배출 시작의 기준선일 뿐이라는 것이다. 단일 인공지능 모델을 훈련하는 건 최소한의 작업으로, 새로운 인공지능 모델을 처음부터 개발하거나 기존 모델을 새로운 데이터에 맞게 조정하는 경우에는 더 많은 학습과 튜닝이 필요하고 탄소 배출량은 더욱 늘 어난다. 연구팀은 논문에 실릴 만한 최종 모델을 구축하고 테스트 하는 과정에서 6개월 동안 4,789개의 모델을 훈련해야 한다고 설명했다. 전 세계 기업들이 너도나도 초거대 인공지능 모델을 개발 하고 있으니 여기서 배출되는 탄소량이 그야말로 어마어마한 것이 다.
인공지능 스타트업 허깅페이스가 대규모 언어모델 블룸BLOOM의 탄소 배출량을 계산해본 결과, 훈련과정에서 25톤의 탄소가 배출 된다고 밝혀냈다. 그러나 블룸을 실행하는 데 필요한 더 큰 규모의 하드웨어 및 인프라 관련 비용까지 고려하면 배출량은 두 배로 늘어난다. 같은 크기의 다른 초거대 인공지능의 탄소 배출량에 비하 면 상대적으로 적은데, 이는 블룸이 이산화탄소를 배출하지 않는 프랑스의 슈퍼컴퓨터로 훈련되었기 때문이다. 화석 연료에 더 많 이 의존하는 중국, 호주 또는 미국 일부 지역에서 훈련된 인공지능 모델은 더 많은 탄소를 배출할 것이다. 오픈AI의 GPT-3와 메타의 OPT는 훈련 중에 각각 500톤과 75톤 이상의 이산화탄소가 배출되 는 것으로 추정했다.
IT 전문 월간지 《와이어드Wired>는 생성 인공지능 경쟁에는 '더 러운 비밀 Dirty Secret'이 있다고 언급했는데, 이것이 바로 탄소 배출의 문제다. 초거대 인공지능이 검색 엔진에 통합되고 다양한 분야에 적용되면 탄소 배출량이 폭발적으로 증가한다는 것이다. 캐나다 데이터센터 회사인 큐스케일oscale의 공동설립자 마틴 부샤드는 검 색에 생성 인공지능을 추가하려면 최소한 검색당 최소 4~5배 이상 의 컴퓨팅이 필요하다고 예상했다. 구글에서 전 세계적으로 초당 4만 회, 연간 1조3,000억 회의 검색이 발생한다고 보면 이 검색 엔 진을 통해 연간 약 40만 톤의 탄소가 배출되는 셈이다. 단순 검색 을 넘어 인공지능까지 탑재되면 탄소 배출량은 가파르게 증가한 다. 이미 마이크로소프트의 검색 엔진 빙과 오픈AI의 챗GPT가 통 합되었고, 구글도 생성 인공지능 바드를 출시한 상황이다. 미래가 아닌 현실에서 일어나고 있는 일이다.
- 생성 인공지능이 '물 먹는 하마'라는 연구 결과도 나왔다. 콜로 라도 대학교와 텍사스 대학교 연구진이 초거대 인공지능 모델을 가동할 때 발생하는 열을 식히기 위해 필요한 냉각수의 양을 추정 하는 연구를 진행했는데, 챗GPT와 대화를 한 번 나누는 데 물 500 ml가 소요된다는 결론을 도출했다. 질문과 답변을 25~50개 정도 주고받는 대화를 기준으로 삼았을 때다. GPT-3를 훈련하는 데는 총 18만 5000갤런(70만 리터)의 물을 쓴 것으로 추정됐다. 데이터센터 가 작동할 때는 많은 열이 방출되기에 계속 운영하기 위해서는 냉각탑이 필요하다. 
- 처음 카메라가 발명되었을 때, 화가들은 이를 인간 예술성이 타 락한 것으로 여겼다. 19세기 프랑스 시인 겸 미술평론가 샤를 보들 레르Charles Baudelaire는 사진 기술을 "예술의 가장 치명적인 적"이라고 까지 비난했다. 20세기 들어서 디지털 이미지 편집 도구들이 비슷 한 이유로 비난받았다. 하지만 기술의 진화와 함께 등장한 새로운 도구들은 점차 세상의 중심으로 이동했고 독자적 세계를 형성하며 예술의 개념을 확장하며 새로운 시장을 열어갔다. 지난 80년간 늘 어난 일자리의 85% 이상이 신기술을 중심으로 한 새로운 직종에서 등장한 것처럼, 생성 인공지능으로 기존의 일은 재구성될 것이고, 새로운 직업과 방식이 등장할 것이다. 머스크의 말처럼 결국 우리 가 세계를 바라보는 방식에 변화가 필요할 뿐 아니라, 스스로 생각 하는 법을 익히지 못하면 통념이 인생을 조종하게 된다. 외면하면 또 다른 위기에 직면할 것이고, 지금 두려움에 직면하고 넘어선다 면 새로운 기회를 만날 것이다. 그리고 그러한 변화 속의 주인공은 바로 슈퍼 개인들이다.




'IT' 카테고리의 다른 글

로봇의 지배  (0) 2023.08.14
AI빅뱅  (0) 2023.08.14
AI 지도책  (0) 2023.07.06
챗GPT 질문이 돈이 되는 세상  (0) 2023.06.04
좋아요는 어떻게 지구를 파괴하는가  (7) 2023.06.02
Posted by dalai
,

AI 지도책

IT 2023. 7. 6. 16:34

- 인공지능을 정의하는 각각의 방식은 인공지능을 어떻게 이해하고 측정하고 평가하고 통제할 것인가에 대한 얼개를 짜는 것과 같 다. AI를 기업 인프라에 대한 소비재 브랜드로 정의한다면 그 지평 은 마케팅과 광고에 의해 결정된다. AI 시스템을 어느 인간 전문가 보다 신뢰할 만하거나 합리적이고 가능한 최선의 행동'을 취할 수 있는 행위자로 간주한다면 그것은 보건, 교육, 형사 같은 중대 사안 에 대해 결정권을 부여해야 한다는 뜻이다. 구체적 알고리즘 기법이 유일한 관심사라면 그것은 기술의 지속적 발전만이 중요하며 이 접 근법들의 연산 비용과 위기의 지구에 미치는 장기적 영향은 전혀 고 려하지 않는다는 의미다.
이에 반해 이 책에서는 AI가 '인공적이지도 않고 '지능'도 아니라고 주장한다. 오히려 인공지능은 체화되고 물질적인 지능이며 천연자원, 연료, 인간 노동, 하부 구조, 물류, 역사, 분류를 통해 만들어 진다. AI 시스템은 자율적이지도 합리적이지도 않으며 대규모 데이 터 집합이나 기존의 규칙 및 보상을 동원한 방대하고 (연산의 측면 에서) 집약적인 훈련 없이는 아무것도 분간하지 못한다. 사실 우리 가 아는 형태의 인공지능은 훨씬 폭넓은 정치적·사회적 구조에 전 적으로 의존한다. 또한 AI를 대규모로 구축할 자본과 AI를 최적화할 방법이 필요한 탓에 AI 시스템은 궁극적으로 기득권에 유리하게 설계된다. 이런 의미에서 인공지능은 권력의 등기부인 셈이다
- '인공지능'이라는 용어가 전산학계에서 거부감을 일으킬 수 있다는 사실은 언급해둘 만하다. 이 문구는 수십 년에 걸쳐 부침을 겪 었으며 연구보다는 마케팅에서 더 많이 쓰인다(전문적 논의에서는 '기계 학습'이 더 흔히 쓰인다). 하지만 자금 지원을 신청하는 기간이나 벤처 투 자가들이 수표장을 들고 찾아올 때, 연구자들이 새 연구 결과에 대 해 언론의 주목을 끌고 싶을 때는 AI라는 용어가 곧잘 동원된다. 이 때문에 AI라는 용어는 채택되기도 하고 거부되기도 하면서 의미가 끊임없이 달라진다. 이 책에서는 AI를 '정치, 노동, 문화, 자본을 아 우르는 대규모의 산업적 구성물'이라는 의미로 쓴다. 반면에 기계 학습을 언급할 때는 기술적 접근법(자주 언급되지는 않지만 이것은 사실 사회 적·토대적 접근법이기도 하다)에 대해 이야기하는 것이다.
하지만 인공지능 분야가 알고리즘적 혁신, 점진적 제품 개량, 편 의성 향상 같은 기술적 측면에 왜 그토록 집중해왔는지에는 중요한 '이유'가 있다. 이런 지엽적이고 추상적인 분석은 기술, 자본, 통치의 접점에 놓인 권력 구조에 훌륭히 이바지한다. AI가 어떻게 해서 기본적으로 정치적인지 이해하려면 신경망과 통계적 패턴 인식을 넘어서서 '무엇이 누구를 위해' 최적화되고 '누구에게' 결정권이 있는지 물어야 한다. 그런 뒤에야 우리는 그 선택들의 의미를 추적할 수 있다.
- 클레이턴 밸리와 실리콘밸리의 관계가 궁금하다면 19세기 금전金田(금광 지대)과 초창기 샌프란시스코의 관계를 떠올려보라. 채굴 의 역사는 그 뒤에 남는 폐허가 그렇듯 기술 발전의 이야기에 으레 동반되는 고의적 기억상실증에 의해 곧잘 간과된다. 역사지리학자 그레이 브레킨이 지적하듯 샌프란시스코는 1800년대 캘리포니아 와 네바다의 땅에서 금과 은을 캐내 얻은 수익으로 건설되었다.' 이 도시의 재료는 채굴이다. 캘리포니아와 네바다는 멕시코-아메리카 전쟁이 끝난 1848년 과달루페 이달고 조약에 따라 멕시코에서 미국 에 양도되었다. 이곳이 매우 귀중한 금전이 될 것임은 당시에 이미 정착민들에게 알려져 있었다. 브레킨의 말마따나 이 사건은 '무역 은 깃발을 따라가지만 깃발은 곡괭이를 따라간다" (상거래의 토대는 군 대이고 군대의 토대는 광업이라는 뜻이다-옮긴이)라는 옛 격언의 교과서적 사례였다. 미국 영토가 쑥쑥 늘어나는 동안 수천 명이 보금자리에서 내몰렸다. 미국의 제국주의적 침략에 뒤이어 광산업자가 몰려들었 다. 땅을 파헤친 탓에 물길이 오염되고 인근 숲이 파괴되었다.
예로부터 광업에서 이윤이 날 수 있었던 것은 환경 피해, 광부 들의 질병과 사망, 지역사회 해체 같은 진짜 비용을 감당하지 않아 도 되었기 때문이다. 광물학의 아버지로 불리는 게오르기우스 아그 리콜라는 1555년에 이렇게 말했다. '광업으로 인한 손실이 광업에 서 생산되는 금속의 가치보다 크다는 것은 누구나 아는 사실이다." 말하자면 광업에서 이익이 남는 것은 오로지 비용을 남들에게, 지금 살아 있는 사람들과 아직 태어나지 않은 사람들에게 떠넘기기 때문 이다. 
- 심층 시간의 관점에서 보자면 우리는 아마존 에코와 아이폰 같은 고작 몇 년 쓰고 버리는 기기를 만들어 현대 기술 시대라는 찰나 를 떠받치려고 지구의 지질학적 역사를 뽑아내고 있는 셈이다. 미국 소비자기술협회의 발표에 따르면 스마트폰의 평균 수명은 4.7년에 불과하다." 이 노후화 주기는 더 많은 기기의 구매를 유도하고 이윤 을 끌어올리고 지속 불가능한 추출 관행을 부추긴다. 광물, 성분, 원 료들의 개발 과정은 느릿느릿 진행되지만 그러한 과정만 끝나면 채굴, 처리, 혼합, 제련, (가공 과정에서 수천 킬로미터를 오가는) 물류 운송은 일사천리로 진행된다. 땅속에서 캐내 폐기물과 광미를 버리고 남은 원광석은 기기로 만들어져 이용되다가 폐기된다. 그리고 결국 가나와 파키스탄 같은 나라의 전자 폐기물 하치장에 매립되고 만다. 탄생에서 사멸에 이르는 AI 시스템의 일생에는 인간 노동과 천연자원의 착취, 기업 권력과 지정학적 권력의 거대 집중 등 여러 프랙털적 공급사슬이 존재한다. 그리고 처음부터 끝까지 지속적인 대규모의 에너지 소비가 이 사슬을 굴러가게 한다.
샌프란시스코의 토대가 된 채굴 방식은 오늘날 그곳에 기반을 둔 기술부문의 관행에서 그대로 반복된다." AI의 대규모 생태계는 우리 의 일상적 활동과 표정에서 데이터를 수집하는 활동부터 천연자원을 
고갈시키는 활동, 이 거대한 지구적 네트워크를 구축하고 유지하기 위해 전 세계에서 노동을 착취하는 활동까지 여러 종류의 추출에 의 존한다. AI는 널리 알려진 것보다 훨씬 많은 것을 우리와 지구로부터 뽑아낸다. 
- 내몽골 최대 도시 바오터우에는 유독한 검은색 진흙으로 메워진 인공 호수가 있다. 유황 냄새를 풍기는 그 호수는 끝이 보이지 않 는다. 지름은 9킬로미터를 넘는다. 그 검은 호수에는 원광석 가공과 정에서 발생한 부산물 가루가 1억 8,000만 톤 이상 쌓여 있다." 폐 기물은 인근의 바이윈 광산에서 유출되었는데, 이곳의 희토류는 전 세계 매장량의 70퍼센트에 이르는 것으로 추정된다. 바이윈 광산은 세계 최대의 희토류 매장지다.
중국은 전 세계 희토류의 95퍼센트를 공급한다. 저술가 팀 모 건의 말에 따르면 중국의 시장 지배는 지질학적 이점 때문이라기보다는 채굴의 환경 비용을 감내하려는 국가적 결의 때문이다. 네오디뮴과 세륨 같은 희토류는 비교적 흔하지만, 이것들을 쓸 만하게 만들려면 대량의 황산과 질산에 녹이는 위험한 공정을 거쳐야 한다. 이 산성 용액은 엄청난 양의 독성 폐기물이 되어 죽음의 호수 바오 터우를 메운다. 환경 연구자 마이라 허드가 우리가 잊고 싶어 하는 폐기물'이라고 부르는 것으로 가득한 장소는 이곳만이 아니다.
오늘날까지 희토류의 전자, 광학, 자력 측면에서의 쓰임새는 어 느 금속도 넘볼 수 없지만, 유용 광물 대비 폐기물 독소의 비율은 상 상을 초월한다. 천연자원 전략가 데이비드 에이브러햄은 중국 장시 의 디스프로슘과 터븀 채굴을 이렇게 묘사한다(두 광물은 각종 첨단 기기에 쓰인다. '채취된 점토의 희토류 함유량은 단지 0.2퍼센트에 불 과하다. 이것의 의미는 99.8퍼센트는 광미라고 불리는 찌꺼기 또는 폐기물이라는 것이다. 이 광미는 언덕이나 냇가에 버려진다." 이렇게 버려진 폐기물은 암모늄 같은 새로운 오염물질을 만들어낸다. '중국 희토류협회의 추정치에 의하면 이 같은 희토류 1톤을 정제해내기 위해서는 그 과정에서 7만 5,000리터의 산성 폐기물과 방사성 폐기물 1톤이 산출된다고 한다.'
바오터우 남쪽으로 약 4,800킬로미터 떨어진 곳에는 인도네 시아의 소도小 방카 섬과 벨리퉁 섬이 수마트라 연안에 자리 잡고 있다. 두 섬에서는 반도체에 쓰이는 주석이 생산되는데, 생산량이 인도네시아 전체의 90퍼센트에 이른다. 인도네시아는 중국에 이어 세계 2위의 주석 생산국이다. 인도네시아의 국영 주석 회사 PT 띠 마는 삼성 같은 기업에 주석을 직접 공급하기도 하고 청난이나 마 오 같은 땜납 제조사에 공급하기도 하는데, 이 제조사들은 소니, LG, 폭스콘에 원료를 공급하고 이 회사들은 다시 애플, 테슬라, 아마존에 부품을 공급한다."
- 지구적 연산의 과거 역사에는 어두운 역설이 있다. 현재의 대규모 AI 시스템은 환경적 · 데이터적 · 인간적 형태의 추출을 몰아붙이 고 있지만, 알고리즘적 연산은 빅토리아 시대 이후로 전쟁, 인구, 기 후변화를 관리하고 통제하려는 오랜 욕망에서 생겨났다. 역사가 시어도러 드라이어에 따르면 수리통계학의 창시자인 영국의 과학자 칼피어슨은 계획과 관리의 불확실성을 해소하기 위해 표준 편차와 상관 및 회귀 기법을 비롯한 새로운 자료 구성 수단을 개발하고자 했다. 한편 그의 방법은 인종학과 깊이 얽혀 있었는데, 피어슨은 통 계학자이자 우생학의 창시자인 자신의 멘토 프랜시스 골턴 경과 더 불어 통계학이 '인종의 모든 특징에 대해 선택 과정으로 어떤 효과 를 얻을 수 있는지 탐구하는 첫 단계'가 될 수 있으리라 믿었다.”
드라이어가 말한다. 1930년대 말이 되자 회귀 기법, 표준편차, 상관관계 같은 자료 구성법은 세계 무대에서 사회적 · 국가적 정보 를 해석하는 지배적 도구가 되었다. 세계 무역의 접점과 경로를 추 적함으로써 양차 대전 사이의 수리통계학 운동은 거대 제국이 되었다. 이 기획은 제2차 세계대전 이후 계속 확장되었으며, 대규모 산 업적 영농의 생산성을 끌어올리기 위한 갈수기 일기예보 등의 영역 에 새 연산 시스템이 도입되었다. 이 관점에서 보자면 알고리즘 연 산, 전산통계학, 인공지능은 20세기에 사회적·환경적 과제를 해결 하기 위해 개발되었지만 이후에는 산업적 추출과 착취를 배가하여 환경 자원을 더욱 고갈시키고 말았다.
- 후텅후이는 『클라우드의 과거 역사 A Prehistory of the Cloud』에서 이렇게 썼다. '클라우드는 자원 집약적인 추출식 기술로, 물과 전기를 연산 능력으로 전환하며 상당한 규모의 환경 피해를 일으키지만 이 것을 눈에 보이지 않도록 치운다." 이 에너지 집약적 인프라의 문 제를 해결하는 것은 중대 관심사가 되었다. AI 업계가 데이터 센터 의 에너지 효율을 높이고 재생에너지 비중을 늘리려고 나름 노력한 것은 사실이다. 하지만 전 세계 연산인프라의 탄소 발자국은 이미 항공업계의 최고치에 도달했으며 더욱 빠르게 증가하고 있다." 수 치에 편차가 있긴 하지만, 로트피 벨히르와 아메드 엘멜리기 같은 연구자들은 2040년이 되면 기술 부문이 전 세계 온실가스 배출량의 14퍼센트를 차지할 것이라고 추정하며 스웨덴 연구진은 2030년이 되면 데이터 센터의 전기 수요만도 약 열다섯 배 증가할 것이라고 예측한다.
- AI 모형을 제작하는 데 필요한 연산 능력을 면밀히 들여다보면 속도와 정확성 면에서 기하급수적 성장을 이루려는 욕구 때문에 지 구가 막대한 비용을 치르고 있음을 알 수 있다. AI 모형을 훈련하기 위한 연산 처리 수요와 이에 따르는 에너지 소비는 아직도 새로운 탐 구 분야다. 이 분야의 초창기 문헌 중 하나는 매사추세츠 대학교 애 머스트 캠퍼스의 AI 연구자 에마 스트루벨 연구진이 2019년에 발표 한 논문이다. 연구진은 자연어 처리NLP 모형의 탄소 발자국을 이해하 는 데 중점을 두고서 수십만 연산 시간 동안 AI 모형을 가동하여 잠재적 추정치를 파악하기 시작했다. 최초의 수치는 충격적이었다.
- 스트루벨 연구진은 NLP 모형을 하나만 가동했는데도 30만 킬로그 램의 이산화탄소가 배출된다는 사실을 발견했다. 이것은 휘발유 자 동차 다섯 대를 (제조 과정을 포함하여) 수명이 다할 때까지 몰거나 뉴욕에서 베이징까지 비행기로 125차례 왕복하는 것과 맞먹는다." 설상가상으로 연구자들은 이 모형이 최소한의 낙관적 추정치 라고 언급했다. 여기에는 애플과 아마존 같은 회사들이 시리와 알렉 사 같은 AI 시스템을 더 사람처럼 들리게 하려고 인터넷 전체에서 데이터 집합을 긁어모아 자사의 NLP 모형을 훈련시키는 실제 상업 적 규모가 반영되어 있지 않다. 기술 부문의 AI 모형에서 소비하는 정확한 에너지양은 알려져 있지 않다. 이 정보는 기업 비밀로서 철 통같이 보호받는다. 여기서도 데이터 경제는 환경을 계속해서 외면 하는 바탕 위에 존재하고 있음을 알 수 있다.
- 미셸 푸코의 감시와 처벌 이후로 교도소를 오늘날 감시 사회의 원점으로 제러미 벤담을 그 이념적 선구자로 간주하는 태도가 보편화되었다. 하지만 판옵티콘의 실제 원조는 초기 제조 시설이라 는 맥락에서 새뮤얼 벤담이 구현한 설계였다." 판옵티콘은 교도소 를 위한 개념으로 구상되기 오래전 작업장 메커니즘에서 출발했다. 새뮤얼 펜담의 감시 구조물 설계는 우리의 집단적 기억에서 거 의사라졌지만 그 뒤의 이야기는 우리가 공유하는 어휘의 일부로 남아 있다. 감시 구조물은 벤담의 고용주 포템킨 공이 추진한 전략의 일환이었다. 그는 농촌 국가 러시아를 근대화하고 농민을 근대식 제 조업 노동력으로 탈바꿈시킬 잠재력을 과시하여 예카테리나 2세 궁 정의 총애를 사고자 했다. 감시 구조물은 그곳을 방문하는 고위 관 리와 금융업자들을 위한 볼거리로 건설되었는데, 이른바 포템킨 마 을도 마찬가지였다. 포템킨 마을은 가난한 농촌 풍경을 시야에서 가 려 관찰자를 현혹하기 위해 설계된 장식용 허울에 불과했다.
계보는 여기에서 그치지 않는다. 그 밖에도 많은 노동의 역사가 감시와 통제의 관행을 빚어냈다. 아메리카 대륙의 식민지 대농장은 강제 노동을 동원하여 사탕수수 같은 환금작물을 재배했으며 노예 주들은 상시 감시 체제에 의존했다. 니컬러스 머조프가 『볼 권리The Right to Look』에서 묘사하듯 대농장 경제에서 핵심적 역할을 맡은 것은 감독관이었다. 그들은 식민지 노예 대농장에서 생산 과정을 감시했으며 그들의 감독은 극심한 폭력 체제 내에서 노예노동의 질서를 세우는 것을 의미했다. 1814년 한 농장주는 이렇게 말했다. '감독관 의 역할은 노예가 한순간도 가만히 있도록 내버려두지 않는 것이다.
그는 설탕 제조 과정을 늘 감시하며 한순간도 제당소를 벗어나지 않는다." 농장주들은 이 감시 체제를 지탱하기 위해 일부 노예들을 식량과 의복으로 매수하여 감시망을 확장함으로써 감독관이 다른 일에 정신이 팔렸을 때에도 규율과 작업 속도가 유지되도록 했다. 지금의 현대 작업장에서는 감시의 역할을 감시 기술이 주로 대 행하고 있다. 관리 직급은 앱으로 직원의 동선을 추적하고, 소셜 미 디어 게시물을 분석하고, 이메일 답장과 회의 일정 예약의 패턴을 비교하고, 직원들이 더 신속하고 효과적으로 일하도록 유도하는 등 다양한 기술을 동원하여 직원들을 감시한다. 직원 데이터는 (정량 화할 수 있는 소수의 매개변수에 따라) 누가 성공 가능성이 가장 높 은지, 누가 기업 목표에서 이탈할 것인지, 누가 다른 노동자를 조직 화할 것인지 예측하는 데 이용된다. 이를 위해 기계학습 기법을 이 용하기도 하고 더 단순한 알고리즘 시스템을 이용하기도 한다. 작업 장 AI가 널리 보급되면서 기본적인 감시·추적 시스템의 상당수가 확장되어 새로운 예측 능력을 갖추고 있으며 점점 더 개입적인 노동자관리, 자산관리, 가치 추출 메커니즘으로 바뀌고 있다.
- 저술가 애스트라 테일러는 실제로는 자동화되지 않은 첨단 시스템을 과대 포장하는 행위를 '포토메이션 fauxtomation'('가짜'를 뜻하는 'faux'와 '자동화'를 뜻하는 'automation'의 합성어 - 옮긴이)이라고 부른다." 자 동화된 시스템은 예전에 인간이 수행하던 작업을 똑같이 수행하는 것처럼 보이지만 실은 배후에서 인간 노동을 조율하는 것에 불과하 다. 테일러는 패스트푸드 식당의 셀프서비스 무인주문기와 슈퍼마 켓의 무인 계산대를 예로 들며 자동화된 시스템이 직원 노동을 대체한 것처럼 보이지만 사실은 데이터 입력 노동이 유급 직원에게서 고 객에게로 이전되었을 뿐이라고 말한다. 한편 중복 항목을 삭제하거 나 불쾌한 내용을 검열하는 등 겉보기에 자동화된 판단을 제공하는 많은 온라인 시스템을 떠받친 것은 사실 집에서 단조로운 작업을 끝 없이 처리하는 인간 노동자들이다." 포템킨의 장식용 마을이나 시 범 작업장과 마찬가지로 여러 중요한 자동화 시스템은 저임금 디지 털 삯꾼을 부리는 것과 더불어 소비자로 하여금 시스템의 작동에 필 요한 무급 노동을 하게 한다. 그러면서도 기업들은 지능형 기계가 작업을 수행한다며 투자자와 일반 대중을 설득하려 든다.
- 현대적 형태의 인공지능은 인공적이지도 않고 지능도 아니다. 오히려 우리는 광산노동자들의 고된 육체노동, 조립 라인의 반복적 공장 노동, 외주프로그래머의 정신적 노동착취공장 sweatshop에서 벌 어지는 컴퓨터상의 두뇌 노동, 메커니컬 터크 노동자들의 저임금 외 주 노동, 일반 이용자의 자질구레한 무급 노동 등에 대해 이야기할 수 있으며 그래야만 한다. 이 장소들에서 보듯 지구적 연산은 추출 의 모든 공급사슬에 걸쳐 인간 노동의 착취에 의존한다.
- 사회학 교수 주디 와이즈먼은 「실리콘밸리가 시간을 맞추는 방 법How Silicon Valley Sets Time」이라는 논문에서 시간 추적 도구의 목표와 실리콘밸리의 인구 구성이 결코 우연이 아니라고 주장한다." 실리 콘밸리의 엘리트 인력은 더 젊고 더 남성 위주이고 하루종일 일할각 오가 더 확고하며 최대 효율을 향한 가차 없는 승자독식 경주를 전제 한 생산성 도구를 만들어낸다." 이것은 젊고 대부분 남성인 엔지니어 들이 시간을 빼앗는 가족이나 공동체의 책임에 얽매이지 않은채) 자 신의 직장과 전혀 다른 작업장을 사찰하고 직원들의 생산성과 호감도 를 정량화하는 도구를 만들고 있다는 뜻이다. 기술 스타트업에서 곧 잘 찬미되는 일중독과 사생활 포기는 다른 노동자들을 평가하는 암묵 적 기준이 되고 남성적이고 편협하고 타인의 무급(또는 저임금) 돌봄 노동에 의존하는 노동자가 표준적이라는 이상을 만들어낸다.
- '데이터 마이닝' 같은 용어와 '데이터는 새로운 석유다'라는 문구는 데이터 개념을 개인적이고 내밀한 것, 또는 개인의 소유와 통 제에 종속되는 것에서 벗어나 보다 비활성이고 비인간적인 것으로 바꾼 수사적 수법의 일환이었다. 데이터는 소비해야 하는 자원으 로, 다스려야 하는 흐름으로, 활용해야 하는 투자로 묘사되기 시작 했다." '석유로서의 데이터'라는 표현이 일상화되었다. 여기에는 데 이터란 정제되지 않은 원료라는 이미지가 들어 있다. 하지만 기한계약노동 (노동자가 일정 기간 근무지를 떠날 수 없는 노동 형태 - 옮긴이), 지정학적 분쟁, 자원 고갈, 인류의 시간 척도를 뛰어넘어 확대되는 결과를 비롯한 석유 및 채굴 산업의 비용을 강조하는 데 이 표현이 쓰이는 일은 드물었다.
- 결국 '데이터'는 무색무취한 단어가 되어 자신의 물질적 기원과 종말을 둘 다 감추고 있다. 데이터가 추상적이고 비물질적인 것 으로 간주된다면 배려, 동의, 위험 등에 대한 전통적 이해와 책임을 더 쉽게 벗어날 수 있다. 연구자 루크 스타크와 애나 로런 호프먼이 주장하듯, 데이터를 그저 발견되기를 기다리는 '천연자원'에 빗대 는 은유는 식민주의 열강들이 수백 년간 써먹은 탄탄한 수사적 수법 이다." 원시적이고 '정제되지 않은' 출처에서 온 것이라면 추출은 정당화된다." 데이터를 그저 추출되기만 기다리는 석유로 치부한 다면 기계학습은 마땅히 필요한 정제 과정으로 간주할 수 있다.
시장을 원시적 형태의 가치 조직화로 여기는 포괄적 신자유주의적 구상에 발맞춰 데이터는 자본으로도 간주되기 시작했다. 인간활동은 일단 디지털 흔적을 통해 표현된 뒤에 득점 기준 내에서 집계되고 등수가 매겨지면 이제는 가치를 뽑아내는 수단의 역할을 하 게 된다. 푸르카드와 힐리에 따르면 올바른 데이터 신호를 보유한 사람들은 시장 어디에서든 보험료를 할인받고 더 높은 위치를 차지 하는 등의 이점을 누린다." 주류 경제에서의 고성과자는 데이터 득 점 경제에서도 승승장구하는 반면에 성과가 가장 낮은 사람들은 가 장 해로운 형태의 데이터 감시 및 추출의 표적이 된다. 데이터가 일 종의 자본으로 간주될 때는, 더 많이 모은다면 모든 것이 정당화된 다. 사회학자 제이선 서다우스키도 데이터가 이제 일종의 자본으로 작동한다며 비슷한 주장을 편다. 그는 모든 것이 데이터로 이해되 면 점점 증가하는 데이터 추출의 순환이 정당화된다고 말한다. '그리하여 데이터 수집은 자본 축적의 영구 순환에 의해 추동되며 이는 모든 것이 데이터로 이루어진 세계를 자본이 구성하고 여기에 의존 하도록 추동한다. 데이터의 보편성이라는 가정은 모든 것을 데이터 자본주의의 영역에 놓이도록 재배치한다. 모든 공간은 데이터화에 종속되어야 한다. 우주가 잠재적으로 무한한 데이터 저장고로 간주 된다면 그것은 데이터의 축적과 순환이 영원히 지속될 수 있음을 의 미한다. 
축적하고 순환하려는 이 충동은 데이터의 강력한 기저 이데올 로기다. 서다우스키는 대량 데이터 추출이 '축적의 새로운 전선이 자 자본주의의 다음 단계'이며 AI를 작동시키는 것은 이 기반이라 고 주장한다. 따라서 (데이터를 먼저 차지하는 사람이 임자인) 이 미개척지를 원하지 않는 산업, 기관, 개인은 모조리 의심받거나 불안정해진다.
기계학습 모형이 더 정확해지기 위해서는 데이터를 계속해서 공급받아야 한다. 하지만 기계는 점근적이어서 결코 완전한 정 확성에 도달하지 못한다. AI 제련소에 연료를 공급하기 위해 최대 한 많은 사람들에게서 더 많은 데이터를 추출하는 행위가 정당화되 는 것은 이런 까닭이다. 여기서 '인간 주체' (20세기 윤리 논쟁에서 생겨난 개념)에서 '데이터 주체'의 개념 변화가 일어났다. 이것은 주체성이나 맥락이나 명확히 정의된 권리 없이 수집된 자료점 덩어리를 일컫는다.
- 기본적으로, 오랜 데이터 축적 관행은 강력한 추출의 논리에 일 조했는데, 이 논리는 이제 AI 분야가 작동하는 방식의 핵심 특징이 다. 이 논리는 가장 큰 데이터 파이프라인으로 기술 기업들을 살찌 웠으며, 데이터 수집으로부터 자유로운 공간은 처참하게 쪼그라들 었다. 버니바 부시가 예견했듯 기계는 먹성이 무지막지하다. 하지만 기계가 무엇을 어떻게 공급받느냐는 그 기계가 세상을 어떻게 이해 하는가에 어마어마한 영향을 미치며 기계 주인들의 우선순위는 항 상 그 시야에서 어떻게 이익이 산출될 것인가를 만들어낼 것이다. AI 모형과 알고리즘을 형성하고 여기에 정보를 공급하는 훈련 데이 터의 층위들을 살펴보면 세계에 대한 데이터를 수집하고 라벨을 붙이는 일이 (순수한 기술적 행위를 가장하지만 실은) 사회적·정치적 개입임을 알 수 있다.
데이터가 이해되고 수집되고 분류되고 명명되는 방식은 기본 적으로 세계 만들기 world-making와 담기 containment의 행위다. 이것은 인 공지능이 세상에서 어떻게 작동하는지, 어떤 집단이 가장 큰 피해를 입는지에 엄청난 영향을 미친다. 전산학에서 데이터 수집이 선의의 행위라는 신화는 권력의 작동 실태를 가려, 가장 많은 이익을 얻으면서도 결과에 대한 책임을 모면하는 자들을 보호한다.
- 분류의 역사는 아파르트헤이트 체제에서 동성애의 질병화에 이르는 가장 해로운 형태의 인간 범주화가 과학적 연구와 윤리적 비 판의 빛 아래서 순순히 바래지 않았음을 우리에게 보여준다. 변화를 위해서는 정치적 조직화, 지속적 항의, 오랜 대중 운동이 필요했다. 분류 체계는 자신을 빚어낸 권력 구조를 확립하고 떠받치며 이것들 은 적잖은 노력 없이는 달라지지 않는다. 프레더릭 더글러스의 말 을 빌리자면, '권력은 요구하지 않으면 아무것도 양보하지 않는다. 결코 그러지 않았고 결코 그러지 않을 것이다." 기계학습의 보이지 않는 분류체계 내에서는 요구를 제시하고 내부의 논리에 반대하기 가 더 힘들다.
이미지넷, 유티케이페이스, DiF 같은 공개된 훈련 집합은 산업 용 AI 시스템과 연구 관행에 두루 퍼지고 있는 범주화 방식을 이해 할 실마리를 던진다. 하지만 정말로 거대한 분류 기관機關은 메타, 구 글, 틱톡, 바이두 같은 민간 기술 기업에서 지구적 규모로 운용하는 것들이다. 이 기업들은 이용자를 어떻게 범주화하고 표적화하는지에 대해 거의 감시받지 않으며 대중적 논쟁을 위한 유의미한 토론장을 제공하지도 않는다. AI의 짝짓기 과정이 정말로 감춰지고 사람들이 자기가 어떻게, 왜 이익이나 불이익을 받는지 알지 못한다면 집단적인 정치적 대응이 필요하다. 그 일이 더 힘들어지고 있지만 말이다.
- 얼굴에서 '감정을 읽는 접근법은 왜, 수많은 비판에도 불구하고 살아남았을까? 이 생각들의 역사를 분석하면 군사 연구 기금, 치 안 우선주의, 이윤 동기가 어떻게 감정 인식 분야를 형성했는지 실 마리를 얻을 수 있다. 1960년대 이후 국방부의 대규모 자금 지원에 힘입어 개발된 여러 시스템이 얼굴 움직임을 점차 정확히 측정하고 있었다. 얼굴 움직임을 측정하여 내적 상태를 판단할 수 있다는 이 론이 등장하고 측정 기술이 발전하자 사람들은 그 기반이 되는 전 제를 기꺼이 받아들였다. 이론은 도구가 할 수 있는 일과 맞아떨어 졌다. 에크먼의 이론이 신생 분야인 컴퓨터 시각에 이상적으로 보인 이유는 대규모의 자동화가 가능해졌기 때문이다.
기관과 기업들은 에크먼이 정립한 이론과 방법론의 타당성을 믿고서 막대한 투자를 실시했다. 감정이 쉽게 분류되지 않는다거나 표정으로부터 신뢰성 있게 탐지할 수 없다는 사실을 인정하는 것은 성장 중인 산업에 타격을 가하는 격이다. AI 분야에서는 마치 이 문 제가 해결된 것처럼 에크먼을 인용한다. 공학적 난제는 아직 직접 파고들지도 않았는데 말이다. 맥락, 조건화, 문화적 요인이라는 복잡한 요인들은 현행 전산학의 학제적 접근법이나 상업적 기술 부문의 야심과 어우러지기 힘들다. 그리하여 에크먼의 기본적 감정 범주가 표준이 되었다. 미드의 중간자적 입장 같은 더 미묘한 접근법들은 대체로 무시당했다. 이런 탓에 우리가 감정을 경험하고 드러내고 숨기는 여러 가지 방법, 우리가 타인의 표정을 해석하는 방법에 대한 더 거창한 질문들에 대처하기보다는 AI 시스템의 정확도를 끌어 올리는 데 초점이 맞춰졌다.
배럿이 말한다. '우리 분야에서 가장 영향력이 큰 모형 중 상당 수는 감정이 자연에 의해 정해진 생물학적 범주이며, 따라서 감정 범주가 인간 정신에 의해 구성되는 것이 아니라 인식된다고 가정한 다. 103 감정 탐지를 위한 AI 시스템은 이 생각을 전제로 삼는다. 하지 만 '인식'은 감정에 대해 생각할 때 완전히 틀린 토대인지도 모른다. 인식은 감정 범주가 생성적이고 관계적인 것이 아니라 주어진 것이 라고 가정하기 때문이다.
- 증거는 감정 탐지의 신뢰성 결여를 가리키고 있지만 기업들은 수십억 달러의 이익을 약속하는 이 부문에서 시장점유율을 높이려 고 여전히 얼굴 이미지화를 위한 새로운 채굴 원천을 찾고 있다. 사 람들의 얼굴에서 감정을 추론하는 작업 이면의 연구를 체계적으로 검토한 배럿은 다음과 같은 경고문으로 마무리한다. '더 일반적으 로 보자면 기술 기업들은 근본적으로 틀린 질문을 던지고 있는 듯하 다. 맥락의 다양한 측면을 고려하지 않은 채 얼굴 움직임을 분석하 는 것만으로 사람들의 내적 상태를 읽어내려는 노력은 잘해야 불완 전하며 최악의 경우에는 연산 알고리즘이 아무리 정교하더라도 타 당성을 완전히 잃을 수 있다. (......) 이 기술을 이용하여 얼굴 움직 임을 토대로 사람들이 무엇을 느끼는지에 대한 결론에 도달하려는 것은 시기상조다.
- 감정 인식을 자동화하려는 욕구에 저항하지 않는다면 우리는 입사 지원자가 자신의 미세 표정이 다른 직원들과 일치하지 않는다 는 이유로 부당한 평가를 받고, 학생들이 자신의 얼굴이 의욕 결핍 을 나타낸다는 이유로 동급생들보다 낮은 점수를 받고, 고객들이 AI시스템에 의해 얼굴 단서를 바탕으로 잠재적 좀도둑으로 판정되어 제지당할 위험을 감수해야 한다. 기술적으로 불완전할 뿐 아니라 미심쩍은 방법론을 토대로 한 시스템의 비용을 누군가는 짊어질 것이기 때문이다.
이 시스템이 작동하는 삶의 영역은 급속히 확장되고 있으며, 연구실과 기업들은 이를 위한 새로운 시장을 만들어내고 있다. 하지만 그들은 모두 분노, 기쁨, 놀람, 혐오, 슬픔, 공포라는 에크먼의 최초 집합에서 파생한 지엽적 감정 이해에 기대어 시공간을 아우르는 인 간 감정과 표현의 무한한 우주를 몇 가지 범주로 대신해버린다. 이 것은 세상의 복잡성을 단 하나의 분류 체계에 담는 앙상한 세계관으 로 회귀하는 꼴이다. 우리가 거듭 목격한 문제, 즉 지독히 복잡한 것 을 쉽게 연산하여 시장에 내놓을 수 있도록) 지나치게 단순화하려 는 욕망으로 돌아가는 셈이다. AI 시스템은 우리의 신체적 자아가 겪는 가변적이고 사적이고 다양한 경험을 추출하려 하지만 그 결과 물은 감정적 경험의 뉘앙스를 포착하지 못하는 만화적 스케치에 불과하다.
- 군사적 차원에서 지자체 차원에 이르기까지 국가가 이용하는 AI 시스템과 알고리즘 시스템을 뭉뚱그려 들여다보면 추출식 데이터 기법, 타기팅 논리, 감시의 조합을 통한 '총체적 인프라 지휘·통제의 은밀한 철학이 드러난다. 이 목표들은 수십 년간 정보기관들의 중심에 있었으나 이제는 지방정부의 치안에서 복지 배분에 이르는 그 밖의 여러 국가 기능에도 퍼져나갔다." 이것은 추출식 지구적 연 산을 통해 국가, 지자체, 기업의 논리가 깊숙이 얽혀 있는 현상의 일 각에 불과하다. 하지만 거북한 거래이기도 하다. 국가는 자신이 통 제할 수 없고 온전히 이해하지도 못하는 기술 기업들과 계약을 맺고 있으며 기술 기업들은 자신에게 적합하지 않고 미래의 어느 시점에 는 책임져야 할지도 모르는 국가적 · 초국가적 기능을 떠맡고 있다.
- 무차별적 감시에 쓰이는 모든 자금과 자원은 중앙 집중화된 통제라는 '열에 들뜬 꿈fever dream'의 일부이며, 그 대가로 사회구조에 대한 다른 시각들을 희생시키게 된다. 스노든의 폭로는 국가와 상업 부문이 결탁할 때 추출의 문화가 어디까지 치달을 수 있는지를 보여 주는 분수령이었지만, 네트워크 도표와 파워포인트 클립아트는 그 뒤로 일어난 모든 일에 비하면 구닥다리처럼 느껴진다. 국가안보 국의 독특한 방법과 도구는 교실, 경찰서, 직장, 고용지원센터에 스 며들었다. 이것은 막대한 투자, 사실상의 민영화, 위험과 공포를 이 용한 안보 정당화가 낳은 결과다. 여러 형태의 권력이 깊숙이 얽힌 현재의 상황은 제3차 상쇄 전략이 품은 희망이었다. 이것은 전장에 서의 전략적 우위라는 목표를 훌쩍 뛰어넘어, 선량한 시민이 어떻 게 소통하고 행동하고 지출해야 하는가에 대한 규범적 정의를 바탕 으로 (추적하고 점수를 매길 수 있는) 일상생활의 모든 측면을 아우 른다. 이 전환은 '기업의 알고리즘적 통치에 의해 조종되는 국가 주 권'이라는 것에 대한 새로운 관점을 동반하며 국가 기관들과 국가의 봉사를 받아야 하는) 국민 사이에 심각한 권력의 불균형을 강화한다.
- AI는 볼리비아의 소금 호수와 콩고의 광산에서 탄생하여, 크라우드 노동자들에 의해 라벨링되며 인간의 행동과 감정과 정체성을 분류하려 드는 데이터 집합으로부터 구성된다. 예멘 상공에 드론을 날리고 미국에서 이민자 단속을 지휘하고 전 세계에서 인간의 가치 와 위험에 대한 신용점수를 조정하는 데 이용된다. 이 중첩하는 체 제와 맞서려면 AI를 광각적이고 다규모적인 관점에서 바라보아야 한다.
- AI의 데이터 집합은 결코 알고리즘에 공급되는 원료가 아니다. 본질적으로 정치적인 개입이다. 데이터를 수집하고 범주화하고 라 벨링한 다음 시스템 훈련에 이용하는 전체 행위는 일종의 정치다. 이로 인해 이른바 운용 이미지 operational image, 즉 오로지 기계를 위해 만들어진 세계 표상으로의 전환이 일어났다." 편향은 증상이며 근 본 원인은 더 깊숙한 곳에 있다. 그것은 세상을 어떻게 보고 평가해 야 하는가를 결정하는 데 이용되는 광범위하고 중앙 집중적인 규범 논리다.
- 우주 식민지화와 우주 채굴이 기술 억만장자의 공통된 판타지 가 되었다는 사실은 이들이 지구와 맺고 있는 관계에 근본적 문제가 있음을 잘 보여준다. 그들의 미래상에는 석유·가스 채굴을 최소화 하거나, 자원 소비를 제한하거나, 심지어 자신들을 부자로 만든 노 동 착취 관행을 완화하는 것조차 들어 있지 않다. 오히려 기술 엘리 트의 언어에서는 지구의 인구를 이주시키고 광물 채굴을 위해 영토 를 획득하려는 정착식민주의 settler colonialism가 종종 엿보인다. 이와 마 찬가지로 실리콘밸리 억만장자들의 우주 경쟁에서도 최후의 공유 재인 우주에 가장 먼저 도달하는 제국이 그곳을 차지할 수 있다고 가정한다. 이것은 우주 채굴에 대한 주요 조약인 1967년 우주 조약 에 위배된다. 조약에서는 우주가 '인류의 공통 이익'이며 모든 탐사 나 이용이 '만인의 유익을 위해 실시되어야 한다고 규정한다."







'IT' 카테고리의 다른 글

AI빅뱅  (0) 2023.08.14
슈퍼개인의 탄생  (0) 2023.07.14
챗GPT 질문이 돈이 되는 세상  (0) 2023.06.04
좋아요는 어떻게 지구를 파괴하는가  (7) 2023.06.02
AI 혁명의 미래  (3) 2023.05.25
Posted by dalai
,

23년초부터 지금까지 IT분야뿐만 아니라 사회 전체로 화제가 되고 있는 것은 뭐니뭐니 해도 챗GPT일 것이다. 웹사이트에 회원가입 정도만 할 수 있으면, 누구나 챗GPT를 통해 질문을 하고, 답을 그 자리에서 확인할 수 있다. 더욱더 충격적인 것은 23년 3월 GPT-4가 발표된 이후 전격적으로 마이크로소프트사가 발표한 MS365 코파일럿이다. 요청만 하면 보고서도 기획서도, 데이터 정리도, 그래프 시각화도 못 하는 게 없다. 사무직 지식노동자들은 충격에 휩싸이고 직장인들의 위기감도 고조되며 전 세계인들이 챗GPR의 패닉에서 벗어나지 못하고 있다.

단순하게 질문에 답변을 하거나, 파워포인트로 문서를 만들어 주는 기능뿐만이 아니다. 미드저니나 달리2를 이용해서 내가 원하는 그림을 만들어내고, 망고보드로 만든 삽화르 동화책을 만들어 아마존에서 판매할 수 있는 시대가 되었다. 음악을 잘 몰라도 AI뮤직 제너레이터로 음악을 생성할 수 있고, 챗GPT플러스로 스키릅트를 만들어 AI음성으로 스크립트를 읽어 줄 수 있는 동영상을 제작하는 시대다. 동시에 챗GPT로 상징되는 AI의 발전은 창작자들의 창작물 혹은 데이터 도용이라는 저작원 이슈를 야기시키고 있다.

과거 인터넷이나 스마트폰이 등장했을 때 그 이상의 대혁명이 일어날 것이라고 예측하는 사람들도 많으며, 교육이나 직장 그리고 사회전에 몰아칠 변화의 쓰나미를 어떻게 헤쳐나아가야 할지 고민과 토론의 장이 벌어지고 있다.

이 책은 AI와 챗GPT같은 프로그램의 등장으로 야기된 세상의 혼란속에서 중심을 잡고 설 수 있는 미래전략을 제시하고 있다. 챗GPT의 사용법이나 알리는 단순한 활용서가 아니라, 챗GPT로 야기될 미래의 삶, 미래 직업, 미래 교육, 그리고 미래사회의 변화를 속속들이 분석하여 그에 대응할 수 있는 생존전략을 제시한다.

1장에서는 데이터 배당 시스템을 소개하고 있는데, 이는 양질의 데이터를 생산한 가치창출 기여자에게 부가가치 환원이 이루어지는 제도로 국민모두가 경제적 자립을 할 수 있는 신경제 시스템이 될 수도 있다.
2장에서는 지식노동자의 위기와 기회의 직업을 다루며 직업의식과 직업윤리, 미래 인재상에 대해 서술하고 있다
3장에서는 미래교육환경 변화를 파헤치며 지식을 재해석해야 하는 필요성, 새로운 교육과 평가방법에 대한 화두를 제시한다
4장에서는 인공지능 발전에 따른 AI반도체의 패권을 둔 국가관계,, 저작권 이슈, 데이터 정책 등을 통해 챗GPT가 우리 사회에 위기가 될지, 기회가 될지 그 윤리적 가치기준을 논하고 있다.
부록에는 정말로 초심자를 위한 챗GPT 사용설명서가 수록되어 있다. 만일 챗GPT에 대한 경험이 전혀 없는 독자라면, 책을 읽기 전에 챗GPT에 가입부터하고 재미삼아 몇가지 질문을 던져보는 것도 좋을 것이다.

 



* 본 리뷰는 출판사 도서지원 이후, 자유롭게 작성된 글입니다.

'IT' 카테고리의 다른 글

슈퍼개인의 탄생  (0) 2023.07.14
AI 지도책  (0) 2023.07.06
좋아요는 어떻게 지구를 파괴하는가  (7) 2023.06.02
AI 혁명의 미래  (3) 2023.05.25
인공지능 파운데이션  (4) 2023.05.13
Posted by dalai
,

- "우리의 미래는 날로 커져만 가는 기술의 힘과 그 기술을 사용하는 우리의 지혜 사이에서의 줄타기가 될 것이다." (스티븐 호킹)
- 세계 디지털 산업은 너무도 많은 물과 자재, 에너지를 소비하기 때문에 이것이 남기는 생 태발자국은 프랑스나 영국 같은 나라가 남기는 생태발자국의 세 배에 이른다. 오늘날 디지털 기술은 전 세계에서 생산되는 전기의 10퍼센트 를 끌어다 쓰며, 이산화탄소 배출량의 거의 4퍼센트를 차지하는데, 이는 세계 민간 항공업 분야 배출량의 두 배에 약간 못 미치는 양이 다." "디지털 기업들이 그들을 규제하는 공권력보다 더 힘이 세질 경우, 그들이 생태에 끼치는 영향을 우리가 더는 통제하지 못할 위험이 있다"고, 스카이프 공동 창업자이자, 기술의 윤리 문제를 연구하는 생 명의미래연구소Future of Life Institute 창립자인 얀 탈린은 경고한다. 2 우리 는 확신한다. 디지털 오염은 녹색 전환을 위험으로 몰아가고 있으며, 향후 30년을 뜨겁게 달굴 도전들 가운데 하나가 될 것이다.
- 사랑스러운 직장 동료의 마음을 사기 위해 당신은 그 동료가 페이스북 에 올린 한 사진에 '좋아요'를 눌렀다. 사랑하는 이의 휴대폰에 도달하 기까지 이 '좋아요'는 인터넷의 일곱 개 층을 거치는데, 그중 일곱 번 째, 그러니까 제일 꼭대기에 있는 층이 당신이 작동시키는 디지털 기 기(가령 컴퓨터)이다. 당신의 애정 어린 '좋아요'는 이제 중간층들(전송 층과 네트워크 층 등. 여기에 관해서는 부록 1을 보라) 속을 파내려가며, 마침내 인터넷의 가장 첫 번째 층인 물리적 층, 즉 해저케이블로 이루어 진층에 닿는다. 다시 말해, 꼭대기 층과 바닥 층 사이에서 '좋아요'는 이동통신 사업자나 인터넷 모뎀의 4G 안테나를 거쳐 건물의 공유기 를 따라가다 당신이 밟고 다니는 인도 표면에서 약 80센티미터 아래 묻혀 있는 구리 관에 닿는다. 그런 다음 대규모 이동 경로(고속도로, 하 천, 선박 예인曳引로, 철도...)를 따라가며 설치된 전선을 타고서 통신 사 업자의 여러 기술적 공간 속에 쌓여 있는 다른 '좋아요'들과 합류한다. 여기서 모인 '좋아요'들은 바다를 가로질러 다른 데이터센터로 운반된 다. 그러다 마침내 인터넷의 가장 깊은 층에 도달한 당신의 '좋아요'는 이제 가장 위층인 일곱 번째 층, 그러니까 당신이 연모하는 동료의 휴 대폰을 향해 지금까지의 여정을 거꾸로 거슬러 올라간다. 이 동료가 당신과 고작 10미터 떨어진 곳에 있더라도 당신의 '좋아요'는 수천 킬 로미터를 여행하는 것이다." 그러니 '좋아요'의 지리학이란 말이 나오 는게 괜한 호들갑은 아니다.
- 스티브 잡스가 추구했던 간결함은 극도의 단순함과 절제를 미덕으로 삼는 불교 의 선사상에 그 뿌리를 두고 있다.  선에 입각한 미학은 필연적 으로 장식이나 군더더기라고는 찾아볼 수 없는 형태의 사원과 연관 된다. "스티브 잡스는 불교 신자는 아니었으나, 선이 추구하는 단순함에서 큰 영감을 얻었으며, 애플의 디자인도 그와 무관하지 않다"고, 명상을 실천하는 투자 전문가 에릭 린너는 평가한다. 잡스 자신도 기회 있을 때마다 선불교가 "미학적으로 경이롭다"고 인정 하곤 했다. 1977년, 애플사가 내놓은 최초의 마케팅 브로슈어에서 이미 "간결함이야말로 궁극의 세련됨"이라고 선언하지 않았던 가? 스티브 잡스의 영향으로 "점점 더 복잡해져가는 기술의 세계를 단순 소박하게 만드는 것이 유행처럼 번져나갔다"고 린너는 말을 이어간다. "디지털 세계에서는 모든 것이 좋고, 완벽하며, 고정되어 있습니다. 부정적인 감각이라고는 찾아볼 수 없는데, 사실 이런 방식은 상당히 위험해요. 실제 우리의 삶은 그렇지 않으니까요!"
요컨대, 기술적 정밀화와 미학적 조화에 대한 스티브 잡스의 추구가 수십억 소비자들에게 지구에 전혀 무해한 디지털이라는 환상을 심어주는 데 기여했다는 말이다.
- 예를 들어 NF3의 경우, 이 기체는 이산화탄소에 비 해 대기 중에 열을 잡아두는 힘이 1만 7000배나 세다. SF6는 그 비율 이 무려 2만 3500배나 되므로, 지구상에서 만들어진 가장 강력한 온실가스로 손꼽힌다. "SF6, 1킬로그램은 24명이 런던에서 뉴욕을 비행 할 때만큼이나 지구의 온도를 올린다"고, 영국 출신 맷 맥그래스 기자 는 정확한 숫자를 인용한다." 그러니 기후 온난화 방지를 위해서는 이 러한 기체들의 사용을 제한해야 한다는 논리가 설득력을 갖는다. 그런 데도 이 기체들의 사용은 뚜렷한 증가세를 보이는데, 그건 우리가 머 무는 건물이나 자동차에 냉방장치가 갖추어지기를 원하며, 5G 휴대폰 이 복잡한 연산과 데이터의 축적을 필요로 하기 때문이다. 전 세계적 으로 이 기체들의 사용을 제한하는 규정이 늘어나고는 있으나, 네덜란 드 국립 보건환경연구소의 거스 벨더스 연구원은 "현재의 추세를 바꿀 수 있는 획기적인 다른 무엇이 없다면, 2050년에 이러한 기체들은 전체 온실가스 발생량의 10퍼센트를 차지하게 될 것"이라고 경고한다. 
- 익명성의 종말
2014년, 오스트레일리아 출신 연구원 앤서니 토카는 마음대로 접근 가능한 데이터를 이용하여 한 스트립 클럽 앞을 오가는 뉴욕 택시들의 움직임을 추적하던 중에 이 클럽의 단골 고객들이 사는 곳을 너무도 정확하게 콕콕 집어내는 데 성공했다." 같은 시기, 벨기에 출신의 한 연구원은 증거까지 제시하면서 "시공간 좌표상의 점 네 개만 알면 개 인들의 95퍼센트는 신원 확인이 가능하다!"고 주장했다. 28 이 말에 대 해 당신은 아마도 모든 데이터는 익명으로 작성되지 않느냐고 이의를 제기할 테지만, 어떤 한 개인의 신원을 밝혀내기 위해 거치는 경로는 생각보다 매우 짧다. 사실 "데이터를 익명 상태로 유지한다는 건 현실 적으로 불가능하며, 그렇기에 따지고 보면 데이터를 바람직하지 않은 방식으로 사용하지 않는 가장 좋은 방법은 아예 데이터를 수집하지 않는 것"이라고 이 문제에 정통한 캘리포니아 출신 엔지니어가 결론짓는다.  독일의 토르슈텐 스트루페 교수는 한발 더 나아가 "익명의 데이터라고 하는 건 그저 거대한 속임수에 불과하다"고 덧붙인다.
- 어쨌거나 습관화된 화석연료 사용은, 지구에서 생산된 총전기량의 약 10퍼센트를 소비하는" 디지털 산업이 온실가스 배출량의 3.7퍼센트 (이 숫자는 2025년이면 두 배로 늘어날 것으로 추정된다)를 차지하는 석연치 않은 상황을 설명해준다. 따라서 우리의 디지 털 행위는, 심지어 가장 평범한 것일지라도, 탄소와 연계된 영향력을 갖게 된다는 사실을 모두 인식해야 한다. 이메일 한 통은 최소 0.5그램 에서 용량이 큰 첨부파일을 동반하는 경우 20그램까지의 탄소를 발생 시킨다. 이는 1시간 내내 켜둔 전구로 인하여 발생하는 탄소의 양과 맞먹는다." 매일 이러한 메일 3190억 통이 전 세계로 발송된다. 그런데 이메일의 탄소 영향력이란 데이터 흐름의 60퍼센트를 차지하는 온라인 동영상에 비하면 무시해도 좋을 정도다." 한 데이터 사업자가 이 숫자들을 우리들 개개인의 척도로 환산해보았는데, 그러기 위해서 그 는 한국의 가수 싸이가 불러 세계적으로 유명해진 <강남스타일> 클립 을 대상으로 삼았다. 이 영상은 온라인에서 한 해에 17억 조회 수라는 어마어마한 기록을 썼는데, 이는 297기가와트시의 전력 소비에 해당 되는 양으로, 이시레물리노, 캥페르 또는 트루아 같은 도시의 연간 전력 소비량에 버금간다! 
- 5G: 생태 관련 문제점은 대체로 알려지지 않은 상태
크기가 수십 센티미터 정도 되는 안테나는 갈륨,2" 스칸듐 등의 희귀금속들로 꽉 채워진 장치로 거의 100미터마다.23 그러니까 버스 정류장이며 가로등 혹은 광고판 등마다 하나씩 설치되어야 할 판이다. 그렇다면 그 안테나는 어떤 식으로 재활용될 것인가? 게다가 데이터 를 전송하기 위해서는 그것들을 광섬유로 된 추가 네트워크에 연결 해야 할 것이다. 미국에서 고속광섬유연합은 자국 내 규모 면에서 상위 25위까지의 도시를 커버하려면 220만 킬로미터의 광섬유(지구 둘레의 55배에 해당하는 길이)를 뽑아내야 할 것이라고 추산했다!  이 숫자는 2026년 세계 인구의 60퍼센트가 이 새로운 세대 휴대폰 네트워크 를 쓰게 될 때면 몇 배나 더 늘어나야 할까?  그뿐 아니라, 5G를 사용 하기 위해서는, 거의 모든 경우에, 전화기를 교체해야 하는 문제가 발 생한다. 2020년 한 해에 5G 사용 가능 단말기 2억 7800만 대가 팔렸 을 것으로 집계되는데, 26 이러한 구매는 고장 난 휴대폰을 교체해야만 하는 실제적인 필요성에 의한 것이었을까, 아니면 디지털 세계를 한층 더 효과적으로 즐길 수 있으리라는 장담에 대한 맹신 및 사용의 편리함 추구가 동기로 작용한 것이었을까? 어찌되었든 궁극적으로 이러한 기술적 모험으로 야기되는 생태 비용은 어느 정도나 될까? 안타깝지만 이 질문에 대해서는 아무도 정확한 답변을 제시할 수 없다! "환경에 미치는 영향에 대한 연구 따위는 없었다"고 한 유럽의회 의원은 불 만을 토로한다. 때문에 5G 서비스를 전개하는 데 '신중성 부재 원칙' 이 작용한 건 아닌지 의문을 가질 수밖에 없다. 정확한 정보가 없다 보 니 비합리적인 공포심이 만연한다. 사람들은 예를 들어, 아무런 증거 도 없이 새로운 안테나가 건강에 치명적인 전자기파를 방출할까 봐 두 려워한다.  늦은 감이 없지 않지만, 그래도 결국 환경 영향 평가 연구가 산발적으로나마 시작되었다. 유럽 전역을 통해서 여러 시의회가 5G 사용을 유예하기로 발표했으며, 시민들이 주축이 되어 공권력이 꽁꽁 묶어두었던 공개 토론회를 열기 위해 위원회를 구성했다.
- 5G 서비스 제공업자들은 그럼에도 부인할 수 없는 5G의 이점을 강조한다. 같은 양의 데이터를 소비한다고 할 때, 이 서비스를 통하면 이전 세대 네트워크를 사용할 때보다 에너지 효율이 10배나 상승한다 는 것이다. 그런데 이는 5G로 인하여 우리의 인터넷 소비와 데이터 소 비가 폭발적으로 늘어날 수 있다는 개연성을 망각하는 것이다. 사실상 신기술은 우리의 소비를 줄이는 것이 아니라 오히려 늘어나게 한다는 데에 모두가 동의할 것이다! 이는 자명한 사실로, 그 구체적인 효과는 1865년에 이미 영국 출신 경제학자 윌리엄 스탠리 제번스에 의해 처 음으로 연구되었다. 당시, 증기기계의 성능이 올라가게 되면 석탄 활 용량이 감소될 것으로 예상되었다. 그러나 제번스는 기술 발전이 제공 하는 에너지 절감 효과가 기계 활용의 증가로 상쇄됨으로써 결국 석탄 연료의 소비가 증가하게 된다는 사실을 입증했다. 
- 디지털은 현재 경제와 기술의 발전을 놀랍도록 가속화하는 촉매제 역할을 한다. 그 같 은 간접 효과가 정확하게 계산된 적은 없지만, 한 가지 확실한 건 그것 이 우리의 실존을 가상화하는 데 절대적으로 일조하지는 않는다는 점 이다. 1930년대부터 자재, 디지털 및 에너지 관련 학문 분야에서 이루 어진 57가지 발명을 분석한 결과 연구자들은 그 57가지 가운데 어느 것도 자원 사용을 전반적으로 감소하지 못했다고 결론 내렸다. 물리 적인 모든 제약으로부터 해방된 에테르적 세계 속으로 무모하게 돌진 했던 우리는 이제 피할 수 없이 우리의 발목을 잡는 명백한 사실, 즉 탈물질화된 세계란 알고 보면 훨씬 더 물질적인 세계라는 자명함 앞에 서 도망치고 싶어진다.
이 대목에서 논쟁은 이념적인 색채를 띠기 시작한다. 리바운드 효 과는 부의 성장을, 무역의 세계화를, 문화 간의 결합을 지지하는지 아 닌지 여부에 따라 두려움을 안겨줄 수도 축하를 받을 수도 있다. 마찬 가지로 디지털 세계의 확장 또한 우리로 하여금 우리 자신의 내밀한 소신이나 확신과 대면하게 만든다. 디지털 세계의 확장은 그 자체로는 좋을 것도 나쁠 것도 없다. 우리가 그걸 가지고 어떻게 하느냐에 따라 달라지기 때문이다. 인터넷은 세계의 오지에 사는 어린이들에게 원 격 수업을 통한 교육의 기회를 제공할 수도 있지만, 음모론의 확산을 부추김으로써 우리의 민주주의를 좀먹을 수도 있다. 희귀 질병 치료에 도움을 줄 수도 있지만, 라이언 카지(미국 텍사스에 사는 이 어린이는 카 메라 앞에서 선물 상자를 개봉해서 유명해졌다)가 계속해서 세계에서 가장 돈을 많이 버는 유튜버로 살게 해주기도 한다. 어찌되었든, 디지털 의 경제적·사회적·심리적 반향을 그것의 생태적 기능과 혼동해서는 안 된다. 디지털 네트워크가 기후와 생명다양성을 보호하기 위한 다양 한 시도를 싹 틔운다고 할지라도 그것은 본래 지구를 구하기 위해 고 안된 것이 아니며, 우리가 보기에 지구의 회복탄력성을 디지털 도구의 역량과 연결시키는 모든 담론은 순전히 집단 기만 내지는 터무니없는 우화에 불과하다. 더구나 우리는 "정보통신기술이 진정으로 세상을 더 나은 곳으로 만들었으나, 환경에 미치는 영향 면에서는 우리에게 닥칠 수 있는 최악의 것이었다"는 탄식의 말까지 듣지 않았던가.
- 1990년대 말부터 블랙록은 "위험에 대한 복잡한 분석들을 자산 관리, 협상, 금융 거래 도구들과 완벽하게 결합해주는 정보화 플랫폼" 알 라딘Aladdin 20을 통해 각종 전망을 내놓고 있다.21 알라딘은 약 15조 달 러에 해당하는 자산(세계 총자산의 7퍼센트)을 운용하고 있는데, 양적분 석을 가히 예외적이라 할 만큼 정교하고 위력 있는 수준까지 끌어올린 것으로 유명하다. 기계는 시장을 움직이는 다양한 요인 간 상관관계를
누구보다도 더 상세하고 정확하게 감지할 수 있으며, 그럼으로써 승리하는 투자 전략을 제안할 수 있다." "블랙록에게는 기계에 돈을 투자하는 편이 분석가들의 인건비(더 비싸면서 효율이 떨어진다)를 지불하는 쪽보다 훨씬 남는 장사"라고, 후안 파블로 파르도구에라 교수는 냉정 하게 평가한다. 
금융의 세계에서는 그러므로 나은 수익을 위해서 대결하는 인간들 이 점점 줄어들고 있으며  "개인들은 이 세계에서 기껏해야 부분적인 역할을 하는 데 지나지 않는다"고, 이 교수는 최근 출간한 저서에서 밝 힌다. 필연적으로, 2020년 블랙록은 직원 수십 명을 해고한다고 발표했다. 이들이 알고리즘의 역량에 비해 너무 뒤처졌다는 것이 그 이유였다. "퀀트펀드의 절대적 환상은, 모든 것이 원활하게 작동하도록 이따금 버튼이나 누르는 직원을 거의 한 명도 남겨두지 않는 것"이라고 한 전직 분석가는 씁쓸하게 말한다. 그러니 그다음은 쉽게 짐작 할 수 있다. "이런 식의 인프라가 전부 가동하게 되면, 별반 상상력이 없는 사람조차도 '아마 컴퓨터가 잘 알아서 [투자] 결정을 내릴 거야' 라고 생각할 것"이라고 정보이론 전문가 마이클 컨스 교수는 예상한 다. 28 투시그마와 르네상스테크놀로지 같은 펀드의 경우가 거기 해당 되는데, 이 두 펀드는 이미 대단히 강력한 도구들이 도구들이 어찌나 막 강한지 여기엔 흔히, 너무 두루뭉술한 감이 없진 않지만, '인공지능'이라는 용어가 붙어 다닌다)과 더불어 자동화 논리를 한층 더 밀고 나갔다.
- 거두절미하고 기술적인 관점에서 볼 때, 우리는 기하급수적으로 팽창하면서 생산, 교환, 저장, 처리되는 데이터를 감당할 수 있을 것인가? 디지털 인프라가 요구하는 엄청난 양의 에너지와 천연자원을 고려할 때, 네트워크는 5G와 모든 것의 인터넷이 예고하는 비물질의 쓰나미를 흡 수할 수 있을 것인가? 과잉 연결된 우리 사회는 실제로 패러다임의 급 진적인 전복을 낳는다. 풍요에 중독된 세계에 예정된 위협은 희소성에 의해 통제되는 세계가 겪는 시련보다 훨씬 막강하다. 축적이 결핍보다 훨씬 치명적인 것이 되어가고 있는 중이다. 그런데 다행스럽게도 인간 의 뇌는 수십 년 전에 네트워크의 한계, 빨강과 파랑으로 향하는 우리 주의력의 한계, 자율주행 자동차의 한계, 수동적 펀드와 인공지능의 한계를 점점 더 멀리 물러나게 해주는 천재적인 발명품을 만들어냈다. 이 혁신적인 발명품의 이름은 바로 해저케이블이다.
- 인터넷은 거대한 수륙양용 네트워크다. 오늘날 전 세계 데이터 트래픽의 거의 99퍼센트가 공중이 아닌 지하, 그리고 바닷속에 펼쳐진 벨트를 통해서 이루어진다. 그러므로 우리의 위치 정보를 비롯하여 줌 회의는 헤이룽장성의 광산이나 스칸디나비아 하천, 대만의 하늘에만 흔적을 남기는 것이 아니다. 그 데이터들은 심연을 건너고 해협을 지나 고 삼각주 지역을 고루 누비고 다닌다. 날이면 날마다 우리는 수천 킬 로미터에 걸쳐 산재해 있는 케이블 수백 개의 도움을 받는다. 하지만 우리 중 압도적 대다수는 우리가 하는 통화며 우리가 주고받는 사진, 동영상 등이 우리 머리 위로 날아다닌다고 철석같이 믿고 있다. 왜냐하면 아마 우리의 디지털 행위로 인한 데이터가 처음엔 안테나(3G, 4G, 5G)로 전달되고, 그런 다음에야 광섬유 네트워크 속으로 들어가기 때 문일 것이다. 올리비에 세갈라르는 아마도 "이륙 순간의 로켓이 연기 를 뿜어내는 배보다 훨씬 인상적이기 때문! "일 수도 있다고 말한다. 그리고 또 한 가지 이유를 덧붙이자면, 1970년대엔 아직 초기 단계였던 데이터 송신을 위해 케이블과 위성이 경쟁을 벌이는 상황이었기 때 문일 것이다. "당시엔 어떤 기술이 다른 기술을 능가하게 될 것인지를 두고 열띤 토론이 벌어지기도 했다"고 한 전직 정보통신 케이블 엔지 니어는 떠올린다. 
- 인터넷 DNA 안에는 환경에 대한 염려라는 부분이 들어 있지 않다. 환경을 염려했다면 네트워크는 아예 존재하지도 않았을 것 이고, 존재한다 한들 최소한 현재와 같은 형태로는 아니었을 것이다. 현실은 이보다 훨씬 세속적이다. 인터넷은 권력과 돈을 쟁취하기 위 한 새로운 도구이다. 베이징 정부는 21세기에 디지털이 주는 오락이 란 결국 다른 수단을 이용한 전쟁의 지속이라는 점을 일찌감치 깨달았 다. 우리는 항상 더 많은 디지털 콘텐츠를 소비하게 될 것이다. 케이블 은 점점 더 팽창할 것이고, 데이터센터는 한층 더 업그레이드된 역량 을 자랑할 것이다. 왜냐하면 데이터야말로 우리가 힘과 명예, 영향력 과 번영의 추구라고 부르는 것, 다시 말해서 역사를 전진하게 만드는 영원한 동력 기관의 새로운 연료이기 때문이다. 그리고 중국과 중국의 경쟁국들은 이것을 탐한다. 결과적으로, 인터넷의 지정학과 이 네트워크가 결정짓는 새로운 역학 관계는 디지털 산업의 활력을 강화할 것이며, 그에 따라 생태계에 미치는 영향력 또한 커질 것이다.








'IT' 카테고리의 다른 글

AI 지도책  (0) 2023.07.06
챗GPT 질문이 돈이 되는 세상  (0) 2023.06.04
AI 혁명의 미래  (3) 2023.05.25
인공지능 파운데이션  (4) 2023.05.13
프로덕트 매니저는 무슨 일을 하고 있을까  (1) 2023.04.08
Posted by dalai
,

AI 혁명의 미래

IT 2023. 5. 25. 11:15

- 2012년 알렉스넷의 승리는 단순히 이미지넷이라는 특정 대회에서 우승을 차지했다는 것 이상의 의의가 있었다. SVM과 같은 기존의 머신러닝 알고리즘은 성능을 높이려면 고민해야 할 것이 아주 많았다. 어떤 사진에서 특성이 잘 추출 안 되는지, 사물을 분류하기 위해 필요한 어떤 요소를 빼먹었는지 등에 대해 연구원들이 머리를 맞대고 고민해야 했다. 하지만 딥러닝 기반 인공신경망은 달랐다. 신경망 사이즈를 조금 더 키우거나 구조설계를 바꾼 뒤 학습 버튼을 누르고 기다리기만 하면 되었다. 수십 명의 숙련된 개발자가 하던 일을, 데 이터를 가진 한두 사람이 더 정확하게 해낼 수 있게 된 것이다. 2012 년 알렉스넷의 우승은 '이후에 인공신경망은 다른 알고리즘에게 절대 지지 않는다'는 메시지를 던진 것이나 다름없었다. 복잡한 전처리 방법들을 고민할 필요 없이 데이터를 신경망에 넣고 학습시키기만 하면 되는 엔드 투 엔드 인공신경망 방식을 택한 것 그리고 GPU를 통해 이를 실행 가능하게 만들어 준 것, 이런 요소들이 한데 모여 드 디어 인간처럼 배우는 인공지능이 세상에 데뷔할 수 있었다. 이 과정 에서 딥러닝이 어떤 식으로 사물을 인식하고 이해하는지에 대한 증 거도 발견되었다. [그림 1)는 학습된 인공신경망의 은닉층이 하는 일을 요약하여 설명한 것이다.
사람의 얼굴을 찾아내는 인공지능을 학습시키면 별 역할이 없던 특정 은닉층들이 서서히 [그림 1-1처럼 특정 도형-원, 가로선, 세로 선 등에 반응한다. 그리고 그 값을 넘겨받은 다음 은닉층들은 전 단계에서 얻은 이미지들을 강하게 (높은 가중치) 반영할지 약하게 낮은 가중치) 반영할지 등을 학습하며 눈, 코, 입 등에 반응하게 스스로 변 화해 간다. 인간의 눈을 발견하는 은닉층이라면 그림 속의 원이 가장 중요할 것이며, 반면 세로선은 별로 중요하지 않을 것이다. 만약 코 를 찾아야 한다면 세로선(날)과 원(구멍)이 중요할 것이다.
- IBM의 첫 도전은 순탄하지 않았다. 1989년 슈퍼컴퓨터 '딥 소트' 는 인간 체스 챔피언 가리 카스파로프에게 패했고, 이에 절치부심한 IBM은 이를 업그레이드한 '딥 블루'를 만들어 1997년 카스파로프에 게 재도전한 끝에 승리한다. 딥 블루는 최고 수준의 인간 체스 선수 보다 더 많은 수를 더 빠르게 계산할 능력이 있었으며, 내부에 수십 만 개의 기보까지 저장되어 있는 슈퍼컴퓨터였다. 딥 블루는 진짜 의 미로 체스를 학습한 것은 아니었다. 엄청난 연산력을 통해 모든 경우 의 수를 파악하는 것에 가까웠다. 하지만 그 원리가 어떠했든 간에 인공지능 암흑기에 컴퓨터가 인간 챔피언을 상대로 승리한 것은 사 람들을 흥분하게 만들기에 충분했다.
IBM은 여기에 그치지 않고 지속적으로 인공지능에 투자했고, 왓 슨이라는 인공지능을 개발하게 된다. 왓슨은 2011년에 미국의 인기 퀴즈 쇼인 <제퍼디>의 과거 우승자들을 상대로 퀴즈 대결을 펼쳐 승리하는 쾌거를 이뤘다. (수를 수학적으로 읽어 내는) 앞의 체스 인공지능과 비교했을 때 (문장을 입력받아 답을 찾아내는 등) 행동 면에서 좀 더 인간다웠던 왓슨 덕분에 IBM은 이번에도 큰 주목을 받았다. 이후에 도 꽤 오랫동안 사람들은 인공지능하면 IBM과 왓슨을 떠올렸다.
왓슨의 구조는 [그림 1-11과 같다. 그림의 맨 왼쪽이 질문Question이 들어오는 곳이다. 질문이 들어오면 질문에 대해 분석하는 부분과 가 설을 생성하는 부분, 답변과 답변에 대한 근거를 검색 Retrieval하는 구 조가 연이어 나타난다. 또한 여러 가설에서 도출된 답변에 대해서 심 사하고 랭킹을 매기는scoring 부분 등 다양한 기능이 보인다.
[그림 1-10]에서 각각의 네모 칸이 뭘 하는지 이해할 필요는 없다. 하지만 이 책을 꾸준히 따라온 독자들이라면 왓슨 내에 정의된 세밀 한 단계별 프로세스를 보면서 무엇이 잘못되어 있는지 정도는 감을 잡을 수 있을 것이다. 인위적으로 세세한 역할을 정해 둔 부분들이 보이지 않는가? 여기까지만 봐도 우리가 앞에서 설명한 사람의 뇌와 같은 엔드 투 엔드 방식과는 거리가 멀어 보인다.
왓슨과 같은 시스템을 한마디로 정리하자면 지식 검색 Retrieval 시스 템이다. 물론 지식 검색은 단순한 키워드 검색이 아니다. 예를 들어, 검색엔진에 '이순신 탄신일'로 검색을 해 보자. [그림 1-11]과 같은 이 해하기 쉬운 결과가 나올 것이다.
이번엔 조금 검색어를 바꿔 퀴즈쇼 형식으로 검색해 보자. '조선 시대의 장군으로 임진왜란에서 삼도수군통제사로서 수군을 이끌고 전투마다 승리를 거두어 왜군을 물리치는 데 큰 공을 세웠다. 이 사 람은 누구인가?"라고 검색해 보는 것이다. 왓슨과 같은 지식검색 시스템은 퀴즈 쇼 문장 형태로 질문이 들어왔을 때 우선 이 문장을 '조선 시대', '장군', '임진왜란', '삼도수군통제사' 등으로 잘게 쪼갠다. 그 다음 쪼개진 단어들을 하나씩 사용해 왓슨 내부의 지식 베이스를 검 색한다. 왓슨 내부의 지식 베이스는 매우 거대하기 때문에 키워드별 로 여러 개의 지식 문서가 나온다. 한 예로 왓슨의 지식 베이스 내에 서 '장군'을 검색하면 강감찬, 신립, 이순신, 을지문덕 등의 단어가 포 함된 수많은 문서가, 임진왜란을 치면 1592년, 이순신, 일본, 도요토 미, 선조 등의 단어가 포함된 수많은 문서가 나올 것이다. 왓슨은 여 기 나온 수많은 단어의 등장 빈도를 확인한다.
한편 입력 문장에 '누구'라는 단어가 있다. 이를 통해 왓슨은 답으 로 사람의 이름을 언급해야 한다고 파악하며, 앞서 찾은 수많은 키워 드 중 가장 많이 등장한 사람의 이름을 고르는 것이다. 여기서 알 수 있지만 왓슨은 진짜로 질문의 의도를 이해하고 답변한 것이 아니다.
실제로 대화가 가능한 인공지능이 아닌 것이다. 왓슨과 같은 AI는 '일반 상식에 대한 질의응답'이라는 한정된 분야에서만 작동할 수 있 었고, 반드시 지식 베이스에 색인해 놓은 문서에 포함된 내용만을 답 할 수 있었으며, 질문의 형태 역시 매우 구체적이어야 했다. 단어 숫 자를 카운팅함으로써 의도와 할 일을 파악하기 때문이다. 그리고 결 정적으로 인간이 만들어 준 규칙인 '검색 결과에서 가장 많이 중복된 단어를 답하라'에 묶여 있는 것이다. 답변 속도도 상당히 느려 상용 화하기에도 매우 어려웠다. 개별 단어 여러 개를 반복 검색한 뒤 검 색된 문장들 안에서 중복도 등을 확인해 점수를 매겨야 하니 당연한 일이다.
- 엔드 투 엔드 인공신경망이 성공하면서 인공지능 개발의 트렌드가 크게 바뀌었다. 개발 방법이 달라지고 응용처가 늘어나면서 세상의 모습도 크게 변했다. 가장 큰 변화는 누구나 인공지능을 만들어 볼 수 있었다는 것이다. 앞에서 소개한 IBM 왓슨은 프로그래머가 알 고리즘을 만들어 데이터를 순서에 맞춰 처리하는 형태였다. 이런 인공지능을 만들기 위해서는 각 부분을 개발하는 소프트웨어 개발자가 다수 필요하다. IBM 정도 되는 규모의 회사만이 만들 수 있는 인공 지능인 것이다. 왓슨에 문제가 생길 경우에도 IBM만이 해결할 수 있 다. 어떻게 보면 모든 힘과 주도권이 IBM에 쏠리는 방식인 것이다. 반면 엔드 투 엔드 인공신경망은 다르다. 자신이 실험해 보고 싶은 인공신경망 구조가 있다면 수백 줄에 불과한 인공신경망 코드를 구 현한 뒤 가지고 있는 데이터를 사용해 학습시켜 보면 그만이다. 학습 에 대한 노하우가 필요하긴 하지만 수백 명의 개발자를 필요로 하지 는 않는다. 이는 특히나 자신들만의 전문 도메인을 가진 회사들에게 큰 의미가 있다. IBM의 인공지능은 작은 시장에는 손을 뻗으려 하지 않을 것이기 때문이다. 하지만 엔드 투 엔드 인공신경망 기반이라면 작은 파트너를 끼고서라도 한 번 해 볼 수 있다.
또 한 가지 중대한 변화는 도메인 전문가 의존성의 감소이다. 기 존 방식에서는 인공지능을 만들기 위해 각 분야의 전문가를 무조건 채용해야 했다. 번역기를 만든다면 번역 전문가, 동물 분류기를 만든 다면 동물 전문가 등 각 분야 전문가가 깊이 관여하고 이에 맞춰 소 프트웨어를 구현해야만 했다. 문제는 이런 전문가들을 언제나 구할 수 없을 뿐 아니라 이들의 의견이 반드시 정답이라는 보장도 없다는 것이다. 인간의 두뇌가 하는 작업 중 태반은 인간 자신도 어떻게 해 내는지 잘 설명하지 못한다. 설명을 한다고 해도 언제나 사후약방문 死後藥方文식일 수밖에 없다. 직감적으로 하는 것을 말로 풀어 설명하는 것은 전문가에게도 매우 어렵다.
이런 변화 덕분에 인공지능으로 새로운 것을 시도하기 더욱 쉬워 졌다. 전문가가 필요 없으니 업종을 빠르게 바꿀 수 있게 된 것이다. 즉 수백 개의 작은 시장 Niche으로 쪼개져 있던 인공지능 기업들이 인 공지능 자체에 집중할 수 있게 되었다.
- AI 페인터와 같은 사례가 의미 있는 이유는 이 서비스는 네이버만이 할 수 있는 것이기 때문이다. 학술적으로 공개된 인공신경망을 사용해 개선판 논문을 쓰는 것은 상대적으로 쉽고 안전하다. 하지만 AI 페인터는 그 길을 가지 않았다. 네이버 웹툰이라는 경쟁력 있는 기존 서비스에서 자신들만이 가질 수 있는 데이터를 얻어 낸 뒤, 여기에 인공지능이라는 신기술을 접목하여 만들어진 것이다. AI 페인터는 기존에 영위하던 사업과 인공지능 기술 두 가지 모두를 잘 이해하는 회사가 어디까지 해낼 수 있는지를 보여 주는 매우 좋은 예이다.
- GPT-3는 '트랜스포머"라는 단위 인공신경망을 기반으로 만든 사전 학습된 생성 모델이다. 숫자 3에서 알 수 있듯 과거에 GPT-1과 GPT-2도 있었다. 이들의 경쟁자는 Google의 BERT였으나 그동안은 크게 두각을 나타내지 못했다. 하지만 GPT-3에서 큰 진전이 있었다. 단순한 트랜스포머 알고리즘을 쓰되 네트워크의 크기를 키우고, 학 습 데이터의 양을 늘리는 것에 최대한 집중했다. 특정 전문 분야에 집중하기보단 언어로 되어 있는 모든 다양한 데이터를 학습에 사용 했으며, 여기에 기존에 자연어 이해와 자연어 생성에서 사용하던 학 습 방식을 병행하여 사용했다. GPT-3의 성능은 충격적이었다. 일단 GPT-3로 생성한 뉴스는 인간이 구분할 수 없을 정도로 정교했다. 더 놀라운 점은 GPT-3가 '언어'의 범주에 들어가는 거의 모든 작업을 수 행할 수 있다는 것이다. 소설이나 수필을 작성할 수 있었고, 기존 기 술들보다 훨씬 자연스러운 대화 생성도 가능했다. 사용자가 원하는 대로 스토리를 즉석 생성하는 AI 던전Al Dungeon>이라는 게임에 사용 되었을 정도다. 심지어 일반적인 언어가 아닌 컴퓨터 프로그래밍 언 어나 수식도 다룰 수 있었다. GPT-3 자바나 파이썬 같은 프로그래 밍 언어로 코딩을 해 주는 경지에 이른 것이다. 기존의 개별 인공신 경망이 담당하던 인간과의 대화, 기사 분류 등의 작업도 당연히 가능하다.
Google 역시 초거대 언어 모델인 람다 LaMDA를 내놓았다. 람다는 아예 자신이 명왕성인 것처럼 가정하고 대화하기도 한다. 이와 같은 방식은 과거의 생성 모델로는 상상도 하기 힘든 일이다.
- 이 같은 성공 덕분에 수많은 기업이 초거대 언어 모델에 뛰어들겠 다고 선언하기 시작했다. Google, 네이버뿐만 아니라 LG전자 등인 공지능과 무관해 보였던 기업들 역시 진출을 선언했다. 하지만 이과 정에서 때때로 초거대 언어 모델의 본질과 멀어진 이야기들이 나오 고 있어 독자들의 주의가 필요하다. 하이퍼클로바는 오리지널 GPT-3 의 1250억 개 파라미터보다 큰 2000억 개의 파라미터를 사용하며, LG전자의 엑사원은 그보다 많은 3000억 개를 목표로 개발을 시작했 다고 한다. 하지만 초거대 언어 모델에서 중요한 것은 파라미터의 개 수만이 아니다. 앞서 언급했듯 본질은 더욱 인간에 가깝게, 다양한 경험을 인공신경망에게 제공하는 것이다. 파라미터의 개수 증가는 이 과정에서 지식이 저장될 공간을 늘려 주는 역할을 할 뿐이다.
현재 초거대 언어 모델은 넘어야만 하는 수많은 도전이 기다리고 있다. 거대 신경망을 학습시키는 것은 굉장한 모험이다. GPT-3는 기 사는 잘 작성하지만 덧셈의 경우 특정 자릿수 이상은 제대로 해내지 못하기도 한다. 이는 아직 초거대 신경망이 진짜 의미로 '이해'의 영 역에는 도달하지 못했기 때문인지도 모른다. 이 원인을 찾고 해결하 기 위해서는 인간을 모사하는 수많은 시도가 이뤄져야 한다. 예를 들 면 인간은 어릴 때부터 오감을 이용해 세상을 경험하는데, 어쩌면 초거대 신경망도 인간과 같이 글뿐만 아니라 이미지 등 다른 감각에 해당하는 정보까지 함께 학습하는, 멀티모달리티 Multi-modality를 구현해야 할지도 모른다.
초거대 언어 모델은 인공지능에서 현재 가장 거대한 인공신경망 이며, 가장 많은 종류의 일을 해낼 가능성이 있는 모델이다. 이후에 도 수많은 회사가 여기에 도전장을 던질 것이다. 이런 시대에 적응하 기 위해서는 독자들 역시 초거대 언어 모델이 무엇인지를 어느 정도 이해하고, 나아가 파라미터 숫자나 모델 크기 등의 정량 지표를 넘어 서는 평가 지표를 이해할 수 있어야 한다.
- 특정 작업을 하는 AI를 만들 수 있는지 여부를 알고자 하는 독자 라면 다음과 같이 생각해 보면 된다. 우선 그 일을 인간이 한다면 어 떨지 곰곰이 생각해 보라. 만약 의사결정을 하기 위해 자료들에서 특 정 정보들을 추출하고 싶은 것이라면 인식 분야의 인공지능이 필요 하다. 창의력을 발휘해서 뭔가를 만들고자 한다면 생성 분야가 필요 한 것이며, 매 순간 특정 행동을 하는 등 의사결정을 하려 한다면 강 화학습을 공부해 보면 된다. 대부분 문제는 이 범주 안에서 해결될 것이다. 단 여기서 '인간이 할 수 있는 일을 명확히 해야 한다. 날 부 자로 만들어 주는 인공지능'과 같은 형태보다 구체적이어야 한다. 한 예로 택배 회사를 운영하고 있다면 '외관만으로 택배 불량을 알아내 는 인공지능'을 통해 운수 효율을 높여 부자가 될 생각을 해야 한다.
- 과거에는 인공지능에게 시키고자 하는 작업에 맞는 단위 인공신 경망 구조를 사용했다. 사물인식에는 동물의 시각 피질을 흉내 낸 합성곱 신경망CNN, 자연어처리 (번역 등)에는 내부에 기억 Memory 이라 는 개념을 가진 순환신경망RNN을 사용하는 방식이었다. 예를 들어, Give him a present(그에게 선물을 전달해라)'를 번역해야 한다고 하면, present란 단어를 '선물'로 번역하기 위해서는 '주다'라는 뜻의 give 가 같은 문장에 있음을 알아야 한다. 과학자들은 RNN을 설계할 때 [그림 3-3]과 같이 과거에 지나간 단어들을 어렴풋이 기억할 공간을 만들어 두었다. Present를 번역해야 할 순간이 오면, 그 전에 give him이 있었음을 알고 있으니 제대로 번역이 되는 것이다. CNN에는 저런 기억 공간이 없으므로 번역 작업을 시킬 경우 효율이 떨어지는 것이다.
하지만 위와 같은 흐름은 Google이 2017년 「필요한 것은 어텐션 뿐Attention is All You Need」이라는 논문에 트랜스포머 Transformer라는 인공신 경망이 발표되면서 바뀌게 된다.
본래 트랜스포머는 RNN과 마찬가지로 자연어처리를 위해 만들어 졌다. 하지만 그 구조는 크게 변화했다. 일단 RNN과는 달리 트랜스 포머 기반 신경망에는 문장이 단어 단위로 순차적으로 들어가지 않 고 전체가 통째로 들어간다. 그리고 어텐션Attention 이라고 불리는, 단 어간 연관성을 지시하는 그 자체로 학습 가능한 구조를 추가했다.
트랜스포머는 [그림 3-4]와 같이 문장을 이해한다. Give him a present라는 문장의 각 단어를 번역할 때 언제나 전체 문장이 보이며, 어텐션은 Give를 번역할 때 present에 집중해야 함을 알려 준다. 나머지 세 단어를 번역할 때도 마찬가지다.
- 트랜스포머는 기존에 다른 분야라고 생각했던 것들이 실제로는 비슷한 특징이 있음을 보여 주었다. 이에 신경망 구조에 대해 연구하 던 사람들은 충격을 받았으며, 일부는 트랜스포머를 마치 만병통치 약처럼 생각하기도 했다. 엔드 투 엔드 인공지능은 인간의 의도적 데 이터 전처리를 줄이는 방향이다. 트랜스포머는 이런 흐름을 인공신 경망 구조 자체에까지 확산시킨 것이다. 트랜스포머로 모든 것이 해결된다면 인공지능 연구원들도 줄일 수 있지 않겠는가? 정말로 트랜스포머는 만능일까?
- 트랜스포머는 성능이 우월하고 범용성이 높은 대신 학습을 위해 대체로 더 많은 데이터를 필요로 한다. 기존 신경망은 연구원이 신 경망에게 '선후의 단어를 봐야 한다'는 정보를 암시적으로 주는 것과 도 같다. LSTM과 같은 단위 신경망은 이미 '기억'에 해당하는 값을 가 지고 있기 때문이다. 하지만 트랜스포머의 어텐션은 '기억'이란 개념 이 필요하단 것조차 학습해야 한다. 학습할 것이 더 많으므로 데이터 가 더 많이 필요한 것이다. 같은 이유로 트랜스포머 기반으로 인공신 경망을 만들면 RNN이나 CNN 기반 인공신경망보다 복잡도가 높아 진다. 연산 자원이 더 많이 필요하단 의미이다. CNN 기반의 인공신경망의 동시 사용 인원이 10명이라면, 트랜스포머 기반의 인공신경 망은 동시에 2명 사용도 벅찰 수 있다. 개발 인력과 관리 인력 숫자를 줄였으나 대신 인프라 운용비용이 증가해 버리는 것이다.
트랜스포머와 같이 정확도가 좋고 범용성이 높은 인공신경망은 대세가 될 수밖에 없다. 그러나 인공신경망은 정확도만으로 성립하 지 않는다. 비즈니스가 성립할 수준의 원가를 확보하는 것 역시 매우 중요하다.
산업 현장에서 인공지능을 개발할 때는 엔드 투 엔드 패러다임을 지키는 범위 내에서 범용성과 최적화를 저울질하고 절충해야 하는 일이 종종 발생할 것이다. 이 과정에서 올바른 의사결정을 내리고자 한다면 범용성을 일정 부분 포기하고 최적화를 할 때 필요한 비용과 최적화를 통한 이익을 정확하게 측정할 수 있어야 한다. 그리고 최소 의 비용으로 최대의 효과를 가져올 수 있는 최적화 방법을 알아내야 한다. 이를 위해서는 인공신경망의 구조를 보다 깊이, 세부적으로 이해하고 있어야 한다. 여전히 인공신경망의 구조를 이해하고 설계할줄 아는 전문가가 가치 있는 이유다.

- 가장 먼저 할 일은 인공지능이 창출할 것으로 예상되는 가치를 측 정하는 것이다. 너무나 당연한 이야기임에도 의외로 많은 인공지능 프로젝트가 가치 창출에 대한 진지한 고민 없이 시작되었다가 자리 잡지 못한 채 흐지부지된다. 특히 '인공지능을 도입하는 것 자체가 목적이 될 경우 프로젝트가 방향을 잃고 헤맬 수 있다. 무리하게 인 공지능 자체를 도입하려 할 경우 되레 인공지능이 업무 효율성을 낮 추고 구성원들이 인공지능을 불신하기도 한다.
그다음 할 일은 해당 업무가 인공지능을 통해 해결 가능한지, 가능하다면 어떤 정보들을 입력받아야 하는지를 확인하는 것이다. 이를 파악하는 가장 좋은 방법은 사람이 할 수 있는지를 상상해 보는 것이다. '기판에서 용접 불량인 저항을 찾아내라'와 같이 명확히 정의되는 업무는 인공지능도 해낼 수 있다.
- 최근 인공신경망 설계는 과거에 비해 매우 자유로워졌다. 이미지는 CNN, 자연어나 음성은 RNN을 기본으로 층수나 파라미터만 바꾸 던 과거와는 달리, 주어진 데이터에 따라 좀 더 유연하게 인공신경망 을 설계한다. 이 덕분에 단백질 구조 예측 등의 다양한 작업들도 인 공지능으로 할 수 있게 되었다. 또한 인공신경망 설계자의 역량에 따 라 같은 데이터셋으로 정확도에 더 중점을 둔 신경망을 만들거나 처 리 속도에 중점을 둔 신경망을 만들 수도 있다. 이해도가 더 높다면 상대적으로 적은 데이터로도 높은 정확도를 낼 수도 있다.
이와 같은 이유로 기업이 인공지능 개발을 내재화하려고 마음먹 었다면 숙련된 인공신경망 설계자를 확보하는 것은 거의 필수다. 일 반적으로 이러한 사람들은 인공신경망의 근간이 되는 선형대수학을 알아야 하므로 수학 기초가 강해야 하며, 여기에 신경망의 각 층과 구조를 이해하고 설계할 수 있는 공학적 사고방식을 함께 갖춰야 한 다. 만약 인공신경망 설계를 직접 해 보고 싶은 독자가 있다면 이 두 역량에 초점을 맞춰 공부해야 할 것이다.
- 더 난감한 점은 정확도를 높이는 데에 필요한 대가가 기하급수 적으로 불어난다는 것이다. 위 대회에서 Google은 정확도를 99.0% 에서 99.1%로 올리기 위해 무려 1억 2100만 개의 파라미터를 필요 로 했으며, 이는 용량으로 500MB 가까이 된다. 이보다 정확도가 더 높은 모델이자 현재 대회에서 1등을 차지한 모델은 ViT-H/14인데, 99.5%의 정확도를 달성하기 위해 6억 3200만 개의 파라미터, 3GB가 넘는 메모리를 사용해야 했다. 이러한 경향은 거의 모든 인공신경망 에서 나타난다. 신경망이 99.1%의 정확도를 가지기 위해서는 기존 99.0% 때는 신경 쓰지 않던 매우 사소한 요소도 구분하도록 학습되어야 한다. 사소한 요소까지 배우려면 더 거대한 인공신경망이 필요해지며, 더불어 사소한 요소들을 포함하고 있는 수많은 학습 데이터 도 필요해지는 것이다.
결과를 요약해 보면 다음과 같다. CIFAR-10과 비슷한 인식 작업 을 인공신경망으로 하려 하는데 사용자가 0.5%의 추가 정확도를 원 한다면 최대 동시 사용자 수가 1/15 가까이로 줄어 버린다는 것이다. 만약 특정 고객이 스마트 팩토리를 추진하는데 정확도가 99.998%(6 시그마) 정도여야만 하는 공정이 있다면 어떻게 할 것인가? 이런 비즈니스 모델에서도 인공신경망은 노동자를 직접 고용해서 일을 시키는 방식이나 기존의 프로그래밍을 통해 공장을 운영할 때와 비교해 비 용우위를 가질 수 있을까?
이렇게 연산력을 많이 사용하는 상황이라면 반응속도도 매우 나 뽈 가능성이 높다. 스마트 팩토리에서 물건이 컨베이어 벨트를 지나 초당 1개씩 지나가는데, 불량을 감지하고 처리하는 것에 2초가 걸리 는 상황이라면 매우 난감할 것이다. 불량 감지 카메라를 2개 설치하고 속도가 느린 컨베이어 벨트 2개를 설치하는 방법도 있겠으나 이렇게 되면 기존 공장의 구조를 고쳐야 한다. 사용자가 원치 않거나 상황에 따라서는 개선하기 힘들 수 있다.
그리고 이렇게 인공신경망의 크기가 커질 경우, 이를 재학습하고 배포해서 기능을 업데이트하는 것 역시 숙련된 인원들이 해야 한다. 학습 시간이 길어 학습 실패의 대가가 매우 클 뿐만 아니라 신경망의 구조가 복잡해 학습이 잘되지 않았을 경우 문제 지점을 찾기 힘들기 때문이다. 인공신경망 내부의 문제들은 원인이 직관적이지 않아서 숙련된 연구원과 프로그래머들에게도 큰 골칫거리이다.
- 기존 프로그램에 문제가 생길 경우 개발자들은 코드를 살펴보며 코드 내의 논리적 모순을 찾는 방식으로 문제를 해결했다. 대부분의 문제는 '덧셈, 곱셈의 순서가 틀렸다'와 같이 해결해야 할 부분이 직 관적이었다. 하지만 딥러닝에서 이러한 문제 발견은 쉽지 않다. 앞서 살펴봤듯 인간 뇌를 이해하지 못하듯 인공신경망의 각 뉴런이 각층에서 하는 일을 추정하는 것은 쉽지 않다. 신경망이 얕고 단순하다면 어느 정도는 시각화해서 역할을 알아낼 수 있지만, 99%에서 99.1% 로 개선된 신경망의 수백 개 층이 무슨 역할을 하는지 이해하기는 힘 들다. 많은 경우 능력이 뛰어난 연구원이 각종 통계적 방법과 직관을 동원해서야 문제의 원인을 '짐작' 정도나 해 볼 수 있으며, 그나마도 해당 신경망의 학습 히스토리를 알아야 제대로 해낼 수 있다.
- 사람의 '기억'을 어떻게 인공신경망으로 구현할 것인지에 대해서는 상대적으로 많이 연구되지 않았다. 현재의 일반적인 인공신경망은 개와 고양이를 잘 구분하고, 음성을 잘 인식해 문장으로 변환하는 등 매우 특정한 업무만을 반복적으로 수행한다. 이런 작업을 수행하는 인공신경망에 굳이 기억이라는 기제를 구현할 필요는 없다고 생각하 는 것이다. 그러나 개와 고양이를 구분하는 인공신경망을 개발할 때 도 기억을 하지 못하기 때문에 생기는 소소한 문제점이 존재한다. 개와 고양이를 거의 완벽하게 구분하도록 학습시킨 인공신경망이 있다고 하자. 이 신경망이 코끼리도 구분하게 만들기 위해 코끼리 데 이터만 추가로 학습시키면 어떻게 될까? 안타깝게도 이 인공신경망은 코끼리는 잘 인식하게 되는 대신 개와 고양이를 잘 인식하지 못하게 된다. 이런 문제를 피하려면 어떻게 해야 하는가? 코끼리를 추가 학습시킬 때 기존에 사용했던 개와 고양이 데이터까지 가져와야 한 다. 반면 사람의 경우 코끼리를 새로 학습했다고 해서 개와 고양이를 잊어버리는 일은 없을 것이다. 이렇듯 지식을 저장하고 기억하는 방 식에서 인공신경망은 아직 사람의 뇌와 차이가 있다.
혹자는 이 문제를 대수롭지 않게 생각할 수도 있다. 실제로 지금 까지 대부분의 인공지능 개발 현장에서 이 정도의 번거로움은 감수 했다. 그러나 최근 유행하는 초거대 언어 모델 같은 큰 인공신경망을 개발할 때는 이 문제가 매우 심각하게 다가온다. 거대 인공신경망은 학습에 많은 시간이 걸리고, 한 번에 매우 많은 데이터를 사용한다. 기존에 이해하지 못하던 한 줄의 공식만 더 이해할 수 있도록 재학습 시키고 싶어도 온 세상 문제집을 처음부터 다 풀어야 하는 상황이 생 기는 것이다.
네이버가 개발한 초거대 언어 모델 하이퍼클로바 사례를 들어 보 자. 하이퍼클로바는 한국어 뉴스와 블로그, 지식인, 카페, 웹문서 등 약 2TB 분량의 데이터를 학습했다고 한다. 그러나 웹상에는 오늘도 수많은 새로운 문서가 올라온다. 기존에 학습한 것만 가지고도 일상 적인 대화를 수행하는 데에는 문제가 없겠지만, 갱신된 정보는 학습 하지 않은 이상 알 방법이 없을 것이다. 예를 들어 하이퍼클로바를 명왕성의 행성 지정이 취소되기 전에 학습시켰다면 태양계의 행성이 몇 개인지 물어볼 경우 9개-현재는 8개라고 답할 것이다. 이 정보 를 갱신하기 위해 명왕성의 행성 지정이 취소되었다는 내용이 담긴 문서만 학습시키고 싶어도, 지금으로선 기존 데이터에 해당 문서를 추가해서 수개월간 재학습시킬 수밖에 없는 것이다.
딥마인드는 이런 문제를 극복하기 위한 대안으로 RETRO Trans former(이하 레트로)라는 인공신경망 구조를 제시했다. [그림 4-4]의 왼쪽 그림과 같이 일반적인 초거대 언어 모델은 하나의 인공신경망 이 언어적인 기능과 지식의 저장을 동시에 담당한다. 반면 레트로는 언어적인 기능을 담당하는 메인 인공신경망과 지식을 저장하는 데이 터베이스를 분리했다. 언어적인 기능이라는 것은 문장을 이해하고 생성하는 기본적인 기능을 의미한다. 예를 들어 나는 학교에' 다음에 들어올 동사로 '먹었다'는 어울리지 않고 갔다'는 어울린다는 것을 아는 능력은 언어적인 기능에 속한다. 이런 언어적인 기능은 특정 사실에 기반한 지식과 상관없는 공통적인 기능이므로 한 번 학습하면 특 별한 일이 없는 한 다시 학습하지 않아도 된다. 그러나 지식은 시간 이 지나면 갱신되기 때문에 수시로 업데이트를 해 줘야 한다. 레트로 는 자주 업데이트해 줘야 하는 지식 부분을 분리함으로써 GPT-3등 의 거대 신경망의 재사용성과 효율성을 높인 것이다. 딥마인드가 공 개한 바에 따르면 레트로는 GPT-3의 25분의 1밖에 안 되는 신경망 크기로 거의 동등한 성능을 발휘한다고 한다. 연산 자원의 최적화 측면이나 학습의 용이성 측면에서 매우 큰 강점을 가진 것이다.
그러나 레트로도 여전히 사람의 기억이 작동하는 기제를 완전히 구현했다고 보기는 어렵다. 레트로는 데이터베이스에 약 2조 개에 달하는 단어를 저장해 놓고 있다. 레트로의 메인 인공신경망이 문장 을 생성하다가 특정 사실관계나 지식이 필요할 때 데이터베이스에서 자료를 가져와 참조하는 것이다. 이런 방식은 인간의 뇌라기보다는 검색엔진에 가깝다. 어찌 보면 엔드 투 엔드 방식에서 약간 뒤로 물 러서는 모습으로 보이기도 한다.
아직 인간은 뇌에서 기억이라는 기제가 어떻게 동작하는지 정확 히 이해하지 못하고 있다. 향후 지속적인 연구를 통해 사람의 기억 은 어디에 어떻게 저장되는지, 어떻게 유지되는지 그리고 저장된 기 억을 어떻게 인출하는지 그 작동 원리를 이해해야 한다. 이렇게 할 때 비로소 인공신경망으로 기억을 구현할 수 있는 길이 열릴 것이다. 레트로와 같은 시도는 뇌 과학이 발전하는 데 있어 필요로 하는 시간 동안 인공지능의 성능을 유지해 줄 중간 다리가 될 수도 있다. 
- 인텔 CPU가 인공지능에서 전성비에 밀려 GPU에게 밀려났듯, GPU 역시 초저전력 영역에서는 소형 가 속기들에게 밀려날 수 있는 것이다. 어차피 대규모 학습이나 연산력 이 크게 필요한 인공신경망 기반의 추론은 NVIDIA 칩이 할 것이고, 소형가속기들은 스마트폰이나 각종 IoT 기기 등과 결합되어 인공지능 추론 가속이 필요한 경우에 사용되는 형태가 될 것이다.
- 스마트폰과 노트북은 이미 상용화되어 있다. 이 시장의 인공지능 반도체를 장악할 경우 스마트폰 기기뿐만 아니라 앱 시장까지 폭 넓은 영향력을 발휘할 수 있다. 하지만 이를 위해서는 일단 천하 통 일이 크게 이뤄질 필요가 있다. PC와 서버 기반 인공지능 학습에서 CUDA가 잘되는 이유는 CUDA가 천하를 통일했기 때문이다. 스마트 폰 AP 시장의 경우 플레이어들이 다들 생존할 만큼의 규모를 갖추고 있다. 인공지능 반도체 시장을 잘 예측하기 위해서는 이 시장에서의 교통정리가 향후 어떻게 이뤄질지를 주의 깊게 지켜봐야 할 것이다.
- 인공지능 기술은 소프트웨어 기반 위에서 동작한다. 그리고 소프 트웨어를 동작하는 데 있어서 반도체를 떼어 놓을 수 없다. 인공신경 망으로 의미 있는 일을 하기 위해서는 각종 입력이 중요한데, 이러한 입력은 대부분 음성, 사진 등이다. 입력을 받기 위해서는 각종 센서 와 통신수단이 필수적이다. 현재 인공지능을 적용하고 싶은데 적용 하지 못하는 영역들은 다들 이유가 있다. 겪고 있는 문제를 AI로 해 결할 준비가 되지 않은 경우도 있겠지만, 대부분은 단순히 연산력 부 족, 네트워크 대역폭 부족, 전원 부족 등 하드웨어적인 이유다. 예를 들어 스마트 팩토리에서 물건의 결함을 인공지능으로 찾아내려 한다- 공장의 구조상 가로세로 각 20cm 공간 안에 반드시 기기를 배치하고, 메모리는 2GB밖에 쓸 수 없는 환경이다. 그런데 인공신경망의 메모리 사용량이 3GB라면 어떻겠는가? 당연 히 현재의 인공신경망을 사용할 수 없을 것이다. 그런데 2년 뒤에 만 약 메모리 용량이 더 큰 기기가 등장한다면? 그렇다면 인공신경망은 바뀌지 않았지만, 해당 인공신경망이 진출 불가능하던 영역의 비즈 니스가 가능해지는 것이다. 하드웨어에 관심이 없던 회사들은 이기 회를 놓치겠지만, 관심이 있는 회사라면 자신들의 인공신경망이 어느 수준의 기기까지 탑재 가능한지 면밀히 추적하고 있을 것이다. 하드웨어 발전 덕분에 감춰 놓았던 비장의 인공신경망 카드를 꺼낼 수 있는 시기가 다가오는 것이다.
물론 하드웨어를 이해한다는 것은 단순히 메모리 용량이 얼마이 고 이론상 최대 연산 능력이 얼마나 되느냐를 넘어서는 문제이다. 하 드웨어 플랫폼을 교체한다는 것은 단순히 기계 하나 바꾸고 프로그 램을 다시 설치하는 것이 아니다. 플랫폼이 교체되면 기존에 돌아가 던 소프트웨어들은 어마어마한 호환성 문제를 겪는다. 예를 들어 나 의 인공신경망은 NVIDIA CUDA GPU 기반인데, 드문 경우겠으나 갑 자기 AMD GPU를 반드시 써야만 하는 상황이 온다면 많은 것이 달 라진다. 내 신경망을 운용하기 위해 도입한 다른 소프트웨어 중 하나 는 반드시 CUDA가 있어야만 돌아갈 수도 있다. 플랫폼을 교체하면 이런 부분들이 전부 에러를 띄우며 멈추게 된다. 이는 추가적인 자원 소모와 신뢰성 문제를 야기한다.
- 가상의 CCTV 감시 서비스의 예를 하나 보자. CCTV를 통해 24시간 모든 카메라를 능동적으로 감시하고 싶은 고객이 있다면 서비스 기업은 CCTV 수십 개당 1명 정도 감시 인원을 배치할 것이다. 문제 는 한 사람이 여러 화면을 보기 때문에 중요한 사건을 놓칠 가능성이 남는다는 데 있다. 하지만 그렇다고 CCTV 1개당 1명씩 배치하는 것 은 비효율적이다. 임금 지출도 클 뿐만 아니라 각 개인의 근무 태만 을 감시하기가 힘들다. 지루한 감시 업무의 특성상 종사자들의 책임 감을 불러일으키기도 쉽지 않을 것이다. 운이 좋은 감시 직원은 평생 CCTV를 보고 있지 않았음에도 사건이 일어나지 않아 아무 책임도지지 않을 것이다.
인공신경망은 이와 같은 특징을 가진 시장을 인공지능 기술 특성에 맞춰서 공략해야 한다. CCTV용 기반의 감시 솔루션을 만들되 ‘모든 것을 무인으로 운영하겠다!'와 같은 목표를 정해서는 안 된다는 것이다. 이런 일을 해낼 수 있는 인공신경망은 매우 무거우며, 추후 에 문제가 발생할 경우 개선하기 힘들고 시간도 오래 걸리기 때문이 다. 사람을 줄이려고 AI를 도입했는데 정작 한계효용 문제를 만나게 되는 것이다. COVID-19와 같은 전 세계적인 사건이 일어나서 빠르 게 대응해야 하는데, 비즈니스 핵심 영역에 있는 인공신경망 학습이 6개월 걸린다면 매우 난감할 것이다.
이와 같은 해결책 대신 가끔은 인공신경망이 틀리더라도 감시 인원을 줄일 수 있는 인공신경망을 도입하면 어떨까? 인공신경망을 만 들되 가끔은 침입이 없어도 침입이 일어났다고 잘못 보고하는 정도 의 정확도만 추구하는 것이다. 대신 인공신경망은 침입이 일어났다고 판단하면 자리에 있는 사람에게 경고만 보내 주는 것이다. 사람은 화면을 보고 이게 진짜 침입인지 아닌지 확인하면 된다. 이런 신 경망을 사용하면 많은 이점이 있다. 일단 구조가 간단해 문제 개선이 빠르다. 나중에 특정 날씨에서는 잘 인식되지 않더라' 등의 문제가 발생하더라도 빠르게 대응할 수 있다. 그리고 최종 판단하는 사람이 현장에 남아 있으므로 신고와 보고 등을 자동화하는 것에 대한 투자 와 번거로움을 줄일 수 있다. 도입한 고객 입장에서는 경고가 뜰 때 만 경고 앞뒤의 영상을 확인해 보는 소수의 인력만 남기면 되므로 인 건비 감소라는 원가 절감을 확실히 누릴 수 있다. CCTV 감시원은 AI 의 경고를 무시했을 경우 기록이 남으므로 AI의 경고는 반드시 확인 할 것이다.
- 인공신경망은 인공지능을 구현하는 방법 중 하나로, 생물의 신경망 구조의 일부를 본떠서 만든 인공적 구조다. 대부분의 인공신경망은 실체를 가진 물건이라기보다는 컴퓨터 프로그램의 형태로 구현 되어 있다. 컴퓨터를 통한 일종의 신경망 시뮬레이션인 셈이다. 흔히 듣는 합성곱 신경망CNN, 트랜스포머 Transformer 등이 모두 인공신경망이 며, 이들을 조합해 만든 더욱 거대한 신경망들도 인공신경망으로 불 리므로 헷갈릴 수 있다.
기계학습은 경험을 통해 스스로 학습하는 프로그램을 만드는 방법론으로, 인공지능의 하부 분야이다. 기계학습에 반드시 인공신경 망이란 개념이 들어갈 필요는 없다. 예를 들어 지난 1년간의 소비 패 턴을 분석해 이번 달 고객의 소비량을 분석하는 알고리즘을 만들었 다면, 그 뒤에 있는 것이 인공신경망이건 아니건 기계학습이 적용되 었다고 할 수 있다. 그저 요즘은 인공신경망 기반의 알고리즘들이 뛰 어날 뿐이다.
엔드 투 엔드는 투입된 데이터를 인위적으로 재가공하지 않고 원 하는 결과값을 뽑아내도록 만들겠다는 목표이자 사상이다.
즉 인공지능은 기계학습의 상위 범주이며, 기계학습은 스스로 개 선되는 알고리즘을 만드는 인공지능의 한 분야이다.












'IT' 카테고리의 다른 글

챗GPT 질문이 돈이 되는 세상  (0) 2023.06.04
좋아요는 어떻게 지구를 파괴하는가  (7) 2023.06.02
인공지능 파운데이션  (4) 2023.05.13
프로덕트 매니저는 무슨 일을 하고 있을까  (1) 2023.04.08
AI 2041  (0) 2023.03.23
Posted by dalai
,

인공지능 파운데이션

IT 2023. 5. 13. 17:50

- 레벨 1 지능은 소프트지능(soft intelligence)으로 부르는데 지식이 소프트웨어의 프로그램 코드 속에 들어 있기 때문이다. 즉 입력된 데이터를 원하는 출력으로 만드는 모든 절차와 지식이 알고리즘 속에 있다. 데이터가 가지는 모든 속성과 특징을 이해해야만 알고리즘을 만들 수 있으며 학습이 필요하지 않다. 오늘날 대부분의 SW들이 이에 속한다. 모든 지능이 코드 속에 알고리즘으로 구현되어 지식을 이해하려면 코드 전체를 이해해야 하므로 지식의 전달이 어렵다. 또한 '알고리즘 지능'이라고 부를. 도 있다. 프로그램 속에서도 일정한 크기의 데이터 처리는 가능하지만 주기억장치의 용량에 좌우되는 한계가 있고, 데이터가 고정되어 있어서 변경하는 경우는 새롭게 컴파일과 설치를 해야 한다.
레벨 2 지능은 데이터 지능(data intelligence)이라고 하며 대량의 질문과 답변 사전을 구축해서 질문 에 답을 주거나 데이터베이스를 검색한다. 알고리즘 속에 모든 지식을 표현하는데, 표현이 불가능한 경우는 컴퓨터 메모리 외부의 저장소(파일이나 데이터베이스 등)에 저장된 데이터를 활용하여 문제 를 해결하는 방법이 있다. 주로 변화하는 데이터의 경우는 알고리즘 속에 저장이 불가능하고 실행 시 점에 외부 데이터를 가져와야 하기 때문이다. 날씨, 현재의 위치에 따른 주변 센서 데이터, 방대한 과 거의 누적 데이터들을 기반으로 통계적 분석이 요구되는 것이나 순위 데이터와 같은 사례에 해당한 다. 기업의 판매량이나 영업실적과 같은 데이터 기반 의사결정에 알고리즘과 데이터의 결합으로 문제를 해결할 수 있다.
레벨 3 지능은 실질적으로 지능(intelligence)과 AI라고 부를 수 있는 레벨로 학습된 지식을 바탕으로 문제를 해결한다. 데이터 마이닝을 기반으로 한 솔루션으로 데이터에 대한 깊은 지식이 필수적이다. 그래서 데이터에서 필요한 특징 (feature)들을 추출해서 테이블로 만들 수 있어야 마이닝 알고리즘을 적용해서 지도 학습 또는 비지도 학습을 수행하여 학습 모델을 생성한다. 지식을 추출한다는 의미에 서 프로그래밍이 반자동화되어 있다고 볼 수 있다. 대신 충분한 양의 데이터가 필요하며 데이터는 많 을수록 성능이 향상된다. 인간이 모두 가르쳐야만 하며 제한된 영역에서만 활용이 된다는 측면에서 '약지능(weak intelligence)'이라고 부른다.
레벨 4 지능은 강지능(strong intelligence)으로 부르며 딥러닝과 빅데이터를 기반으로 학습하는 모 델을 뜻한다. 딥러닝을 통해서 인간보다 우수한 능력을 보유하여 '강'이라고 한다. 알파고가 대표적인 강지능 시스템으로 3만 개의 바둑 기보를 학습했다(인간은 3만 개의 바둑 기보를 학습할 수 없다). 인간이 감당할 수 없는 빅데이터 학습을 통해 만들어진 학습모델이므로 인간의 지능을 능가한다.
레벨 4 지능의 학습 모델은 마이닝과 같이 특징 추출이 필요 없어서 데이터에 대한 깊은 이해가 없어 도 된다. 즉 사진을 가지고 누구인지 식별할 때 눈, 코, 입의 특징을 가르쳐줄 필요가 없으며 시스템이 알아서 적절한 특징을 추출해서 학습한다. 그러므로 인간은 무슨 특징을 가지고 구별했는지 알 수가 없어서 결과가 어떻게 도출되었는지 모르는 블랙박스와 같다. 최근에 설명 가능한 딥러닝에 대한 연 구가 진행 중에 있다.
또한 언어 학습도 종단간 학습(end-to-end learning)이 가능하다. 즉 번역의 경우 입력문장과 출력 문장의 집합을 가지고 학습을 시키면 된다. 그러므로 레벨 3 학습을 위해서는 빅데이터가 필수적이 며 오늘날 수억 개의 번역 문장을 확보하면 번역 학습이 가능하다.
레벨 5 지능은 초지능(super intelligence)으로 빅데이터도 필요 없이 스스로 학습을 할 수 있는 것 을 의미한다. 제로 데이터 학습이라고 해서 체스 두는 기본 원칙만 알면 스스로 수많은 체스판을 생 성하면서 학습한다. 바둑도 바둑 두는 기본 원칙만 가르쳐주면 수만 개의 바둑판을 만들어가면서 바둑에 대해서 학습한다. 알파제로가 대표적인 레벨 5 지능이다.

- AI가 아닌 사례를 들어보면 다음과 같다.
•내비게이션: 알고리즘으로 구현된 것으로, 내비게이션은 AI가 아니다. 또 교통상황에 따라서 길 찾기를 다르게 하는 기능이 있어도 AI가 아니다.
•퍼지 냉장고, 퍼지 선풍기: 예전에 퍼지(fuzzy) 기능을 넣고 인공지능 가전제품으로 홍보한 적이 있다. 퍼지로직이 구현되었다고 AI는 아니다.
•AI 로봇청소기: 로봇청소기가 AI 기능이라고 홍보는 하지만 주변 환경에 적응하고 장애물을 회피한다 고 AI라고 볼 수 없다.
•AI 세탁기: 세탁할 의류의 오염도를 감지하여서 세제의 양과 세탁 방식을 조절한다고 해서 AI는 아니다.
음성인식과 통역, 사물인식 등 학습에 의한 AI의 핵심 기능을 활용해서 제품화한 것은 AI 제품으로 간주한다. AI 스피커, 자율주행 자동차 등이 이에 속한다. 그러나 같은 기능이라도 알고리즘에 의해서 만들어진 음성인식이나 자연어 번역의 경우는 AI라고 볼 수 없다.

- 지식에서 노하우(know how)는 실제로 어떻게 만드느냐에 해당하는 지식으로 이론에는 있지만 실 전의 경험에 의해서 숙련된 별도의 지식을 말한다. 기능(skill)은 반복에 의하여 숙달된 지식을 의미 한다. 과거에는 노하우를 중요하게 생각했지만 오늘날에는 필요로 하는 지식이 어디에 있는지, 그리 고 누구를 통해서 구할 수 있는가를 의미하는 노웨어(know where)가 중요하다. 그러나 검색 엔진은 필요한 지식을 모두 검색해준다. 인터넷에 없는 지식을 구하는 것은 어려우며 기업들은 영업 비밀의 형태로 특허로 등록하지 않고 보안을 유지하며 관리한다. 15
노와이(know why)는 노웨어(know where)도 알고 노하우도 알아서 실제로 제조하여 활용은 하지 만 실제 그 원리는 모르는 수가 있으며 지식을 완전히 이해하고 더 발전시키려면 노와이를 알아야만 한다. 근본 원리를 이해하는 것인데 노와이는 모르는 채 활용되는 지식들도 많다.
베스트 프랙티스(best practice)는 특정한 업무를 수행할 때 가장 최선의 방법을 의미한다. 최선의 문제해결 방법을 베스트 프랙티스라고 하며 누구나 자신이 맡고 있는 일에 대해서 이 방법을 알고 처 리하면 가장 경쟁력이 있다고 할 것이다.

- 온톨로지는 철학에서 존재론이란 뜻이지만, 지식 표현 분야에서는 단어와 단어 간의 모든 관계를 표 현하는 방식으로 추상화에서 살펴본 IS-A, PART-OF 관계 외의 모든 다른 관계를 표현할 수 있다. '호 랑이'와 '토끼'의 관계에는 '먹는다'는 관계가 가능하며 '사람'과 '자동차'에는 '교통수단'이란 관계가 있다. 또한 단어의 비슷한 말, 반대말, 유사어 등 모든 관계를 표현 가능하여 모든 단어 간의 관계를 DB로 만들어 놓은 워드넷(wordnet)은 단어들의 온톨로지 사전이다. 이 방식에서는 모든 지식을 개 념 1, 관계, 개념 2)의 트리플(triple) 형식으로 표현하기에 지식의 추가와 삭제 연산에 편리하고 단순 한 형식이라는 장점이 있으나 작은 지식의 양에도 방대한 트리플을 처리해야 하는 단점도 있다.
사람이 하나하나 모든 단어의 온톨로지를 만들어서 지식 처리를 하려는 노력이 오래전부터 시도되 어 왔으나 성공에 이르지 못하고 오늘날 딥러닝을 이용하여 모든 단어의 관계를 스스로 학습하여 신 경망에 저장하도록 하는 방식이 더 잘 처리한다. 그래서 지금 서비스로 제공하는 언어 번역 시스템이 모두 딥러닝을 기반으로 하고 있다.
- 딥러닝의 특징은 입력 데이터로부터 특징 추출을 할 필요가 없다는 것이다. 입력과 출력 사이의 종단 간 학습(end-to-end learning)이 가능하다는 것이 가장 큰 장점이다. 이 점은 언어 번역에서도 품사 분류와 문법의 구문 구조에 따른 파싱 트리를 만들지 않고 입력 문장과 번역 문장만 주고 학습하면 문법의 세부내용은 알 필요도 없이 종단간 번역 능력을 학습한다는 것이다.
딥러닝은 자동프로그래밍 SW를 가진 것과 같다. 프로그래머의 꿈은 프로그래밍을 컴퓨터가 자동으 로 해주는 것이다. 프로그래머는 단지 입출력 데이터만 주면 시스템이 해당하는 프로그램을 완성해 주는 것으로 딥러닝은 바로 이것을 가능하게 해주고 있다.
딥러닝의 문제는 완전한 프로그램을 얻기 위해서는 대량의 입력과 출력을 알려주어야 한다는 점이 다. 하나만 가르치면 열을 아는 딥러닝은 없다. 빅데이터와 딥러닝은 상호의존적인 관계라고 볼 수 있다. 오늘날 빅데이터 기술이 등장하면서 딥러닝도 가능해졌다. 45TB의 문장들을 학습해서 만들어진 GPT-3 언어 플랫폼은 빅데이터와 딥러닝의 완성이라고 볼 수 있다.
잘못된 데이터를 학습하면 잘못된 생각으로 이어진다. 역사 교육에 있어서 오류는 무척 많다. 중국 이나 소련, 일본 등이 대표적인 사례다. 일본의 청소년들은 아직도 한국전쟁을 항미원이라고 배우고, 대동아전쟁이 평화를 위한 것이라고 배우는 등 한일강제병합의 역사를 왜곡해서 한국이나 대만이 식민지를 통해서 발전되었다는 교육을 받는다.

- 인공 데이터를 만들어 학습하는 딥러닝: 알파 제로
딥러닝이 반드시 빅데이터를 필요로 하는 것은 아니다. 알파고는 대량의 바둑 기보를 토대로 학습했 다. 그러나 알파제로는 바둑기보를 가지고 학습하지 않고 스스로 바둑을 두면서 학습했다. 인간이 만 든 데이터를 필요로 하는 것이 아니면, 인공 데이터를 생성할 수 있는 분야의 경우는 데이터를 만들 어 학습하면 된다.
- 데이터가 필요 없는 학습: 제로샷(zero shot) 학습
빅데이터를 확보하는 일은 간단하지 않다. 또 데이터 자체가 희소한 분야가 있기도 하다. 이미 우리 는 실제 데이터가 없어도 데이터에 대한 개념적 설명을 가지고 인식할 수 있는 능력을 가지고 있다. 예를 들어 밤하늘에서 'W' 모양의 별자리를 카시오페아라고 알려주면 한 번도 본 적 없어도 찾을 수 있다. 이러한 학습을 제로샷 학습이라고 한다. 샷은 예제 데이터를 의미하여 데이터를 한 번도 주지 않고 학습하는 것으로 대신 충분한 데이터에 대한 메타데이터 설명이 주어져야 한다. 그래서 이 분야 를 전이학습의 한 사례로 구분하기도 한다.
오카피(okapi)라는 동물은 다리에 얼룩말 무늬가 그려져 있는 말과 비슷하게 생긴 동물이다. 우리는 오카피를 한 번도 본적이 없지만 설명만으로도 오카피를 보게 되면 알아볼 수 있다. 직접 본적 없지 만(동물을 보고 학습하지 않고) 설명만으로 맞출 수 있는 제로샷 학습의 또 다른 예이다.

- 데이터가 가지는 편견의 문제는 인간의 실제 생생한 모습 그 자체일 뿐이다. 여성차별, 인종차별에 따른 편견은 인간이 누적한 데이터가 그러하기 때문에 데이터를 모두 삭제하지 않는 한 해결 자체가 불가능하다. 인간의 생생한 데이터를 학습한 결과를 통해서 AI는 우리가 보고 싶지 않은 불편한 진실 을 알려주고 있다.
그러므로 편견 없는 AI를 만들기 위해서는 데이터에 대한 청소(cleansing)가 필요하다. 데이터 마사 지라고도 하며 개인정보 보호를 위해서 법원 판결문에서 개인정보에 해당하는 부분을 모두 제거하 는 익명화(anonymization) 기술과 같이 편견 부분을 모두 제거해야 한다. 이것은 사실 진실을 가리 는 작업이라고 볼 수도 있고 선의의 거짓말을 통해서 우리가 지향해야 할 방향을 제시하기 위함이라 고 볼 수 있다.25 성장기의 청소년에게는 현실의 생생한 모습 중에 목불인견의 장면을 보여주지 않는 것이 타당한 것과 같다고 여길 수 있다.26
AI의 공정성을 논하기 전에 우리는 먼저 알고리즘의 공정성을 생각해볼 수 있다. 특히 검색 알고리즘 의 경우 검색 결과를 보여주는 순서에서 인위적인 조작이 추가되는 경우가 문제가 된다. 조회수와 같 은 공정한 기준을 사용하지 않고, 광고비를 많이 낸 순서로 결과를 보여주는 것은 정보를 왜곡하는 것이다." 블로그의 기사를 광고비를 받아서 썼다고 명시하는 것은 가능하다. 문제는 광고비를 받고 서 마치 객관적인 의견인 양 기사를 쓰는 것이다.
- 분석에서 나아가 마이닝(mining)은 보다 고차원적인 정보의 분석 결과를 보여주며 우리는 이것을 지식 추출(knowledge extraction)이라고도 한다. 마이닝의 결과 지식은 다양한 방식에 따라서 여러 가지 형식으로 나타내며, 수준별로 다양하게 나타날 수 있다.
우선 설명 마이닝(descriptive mining)을 들어보면, 이는 데이터 전체에 대해 요약해서 설명하여 이 해하기 쉽게 만들어주는 마이닝이다. 책이나 논문의 요약문이 전체를 한 마디로 요약하는 것으로 문 서 마이닝에서 주요 응용의 하나다. 독서 감상문의 경우 책 전체를 얼마나 잘 이해해서 짧게 요약하 는지 능력을 파악할 수 있으며 자기소개서의 경우도 자신을 짧은 문장으로 어떻게 잘 표현하는지 알 수 있다.
설명 마이닝에는 특징 추출, 특징 요약(축소), 의사결정 트리, 연관규칙, 군집 등의 방법을 사용한다.
- 예측 마이닝(predictive mining)
데이터에 대한 전체를 이해하고 파악한다면, 미지의 데이터가 입력되었을 때 그 데이터의 특성을 통해서 분류와 미지의 값을 채워 넣을 수 있다. 
- 딥러닝은 역공학이다.
딥러닝은 알고리즘을 모르는 경우 역공학으로 파라메터를 가진 일반적인 신경망 모델을 만들고 파라 메터 값을 계산하는 과정이다. 딥러닝 알고리즘 하나로 오늘날 모든 문제를 푸는 데 필요한 알고리즘 을 학습하여 파라메터에 저장함으로써 문제를 해결한다. 문제를 푸는 알고리즘을 자동으로 만들어주 는 알고리즘이라고 볼 수도 있으며 프로그래머의 꿈인 자동 프로그래밍이 실현되었다고 볼 수 있다.
- 딥러닝은 메타알고리즘이다.
알고리즘이란 문제를 해결하는 방법을 의미한다. 알고리즘을 모르고도 문제를 해결할 수 있다. 

- 단어를 벡터로 표현하는 기법의 효용성으로 인해서 구문(phrase)을 벡터로 그리고 문장을 벡터로 표 현하는 모델도 등장하였다. 지금까지 단어들의 의미와 유사어, 반대어 등을 사전에 저장하는 방식으 로 자연어를 처리하는 방식에서 벗어나서 주어진 텍스트를 그대로 단어들의 연관 관계만을 가지고 벡터로 만드는 워드 임베딩은 단어의 의미를 처리하는 모든 문제를 해결해주었다.
즉 단어는 문장 내에서 함께 사용되는 단어에 따라서 의미가 결정된다는 사실이다. 우리가 영어학습 에서 단어의 뜻을 모를 때 문장 내에서 어떤 뜻인지 추측하는 학습을 하라는 것이 바로 이 때문이다. 오늘날 자연어 처리는 많은 문장을 단어와 단어 간의 연관성을 가지고 학습시키는 방식을 사용한다.

- 인공지능이 인간보다 예술작품에서 이길 수밖에 없는 이유는 다음과 같다.
* 인류가 만든 모든 예술작품을 다 알고 있다.
* 인간이 좋아하는 모든 음악을 다 알고 있다.
* 인간이 좋아하는 모든 문학 표현과 스토리텔링 및 문체를 모두 학습했다.
* 색상의 수에서 압도적이다. 컴퓨터가 처리하는 색상 수는 현재 1억 개를 넘었다. 아무리 뛰어난 화가라도 컴퓨터가 다루는 색상의 수를 넘지 못한다.
* 음의 활용 개수에서 압도적이다.
* 캐릭터 제작에서 가장 아름다운 (인간이 좋아하는 모든 요소를 갖춘 캐릭터를 만들 수 있다.

- 현재 GPT-3의 문제점으로 알려진 것으로는 다음과 같은 것을 들 수 있다.
* 초거대 AI 모델이므로 막대한 학습 비용이 든다. 마이크로소프트사의 10억불 투자로 독점 사용권을 부여했으며 현재 유료로 서비스 중에 있다.
* 물리적인 상식을 모른다. “치즈를 냉장고 안에 넣으면 녹을까?"의 질문에 “그렇다.”로 답한다.
* 모든 분야에서 뛰어난 것은 아니며 두 가지 이상의 복합 연산 능력은 저조하다.
* 예제를 암기한 것인지 추론해서 얻어진 것인지 불분명하다.
* 새로운 정보를 수용하기 어렵다.
* 통계적으로 다음에 많이 나오는 단어를 예측하는 방식으로 학습한 것일 뿐 결코 '이해(understand)'한 것은 아니다. 그리고 상식도 매우 부족하다.
* 가짜 뉴스나 편견 등이 완전하게 제거되지 않아서 위험한 답변을 줄 수 있다. 특히 유대인이나 여성에 대해서 반유대, 여성혐오적 표현 생성이 가능하다.
* 일관된 한 사람으로서의 페르소나(persona)를 가지지 못한다.

- "자신을 기억할 만한 사람이라고 생각하기 시작하는 순간, 당신은 당신을 만난 것조차 기억하지 못하는 사람과 마주칠 것이다." (존 어빙)




'IT' 카테고리의 다른 글

좋아요는 어떻게 지구를 파괴하는가  (7) 2023.06.02
AI 혁명의 미래  (3) 2023.05.25
프로덕트 매니저는 무슨 일을 하고 있을까  (1) 2023.04.08
AI 2041  (0) 2023.03.23
웹 3.0 사용설명서  (2) 2023.03.17
Posted by dalai
,

- '애자일 소프트웨어 개발 선언" 
우리는 소프트웨어를 개발하고, 또 다른 사람의 개발을 도와주면서 소프트웨어 개발의 더 나은 방법들을 찾아가고 있다. 이 작업을 통해 우리는 다음을 가치 있게 여기게 되었다:
공정과 도구보다 개인과 상호작용을
포괄적인 문서보다 작동하는 소프트웨어를
계약 협상보다 고객과의 협력을
계획을 따르기보다 변화에 대응하기를
가치 있게 여긴다. 이 말은, 왼쪽에 있는 것들도 가치가 있지만, 우리는 오른쪽에 있는 것들에 더 높은 가치를 둔다는 것이다.

- 사용자 중심의 제품 구현이 힘을 얻은 것은 얼마 되지 않았다. 그전에는 이해관계자가 요 구하는 대로 제품을 만들고 제때 납품하면 되는 업무수행 방식이 주를 이루었다. 단계적 으로 업무가 진행되고 위에서 떨어진다는 수직적인 의사소통의 의미도 담아 이러한 개 발 방식을 워터폴 Waterfall 이라고 부른다. 워터폴 개발 방식은 모든 것이 사전에 계획되어 납기에 맞추어 결과물을 내는 것이 최고의 목표이다. 그렇기 때문에 계획이 옳고 그른지 를 생각하기보다는 제때 해내는 것이 가장 중요하다. 이와 같은 방식에 의문을 제기하고 가치 있는 제품을 빠르게 고객에게 전달하자는 기조를 세우게 된 것이 애자일 개발 방법론agile software development이다. 의미 있는 배경과 공감할 수 있는 내용과는 달리 현업에서 이를 적용하는 데에는 상당한 어려움이 있다.
제품의 특성에 따라 사용자에 전달하는 유의미한 가치뿐만 아니라 감안해야 하는 요소가 많은 제품이 있다. 법적인 규제 또는 재무적인 구성 등 정책을 정하면서 논의하고 점검해 야 할 부분이 많은 경우가 있다. 이 과정을 생략하고 사용자에게 제품을 출시한다면 사용 자는 행복할 수 있으나 기업은 건전성을 잃을 수 있다. 또한 이러한 정책 파악 과정을 애 자일 개발 방법론에 따라 프로덕트 매니저뿐만 아니라 제품팀 모두가 참여하게 된다면 유관부서와의 협업 내용을 모든 담당자가 숙지해야 한다. 이는 구현 담당자의 집중을 분산시키는 결정일 수 있다.
-  프로덕트 매니저는 사용자가 제품을 만났을 때의 경험에 대한 설계 책임을 진다. 사업적인 목표 달성을 위해 노력하고 마지막으로는 기술적으로 지속 가능하고 안정 적이며 효율적인 방식을 사용해야 한다. 벤다이어그램이 프로덕트 매니저의 이상적인 모 델을 대표한다면, 프로덕트 매니저의 현실적인 역할은 시멘트에 비유할 수 있다.
프로덕트 매니저는 제품이라는 집을 짓기 위해서 벽돌을 쌓아 올리고 연결하여 완성하고 자 한다. 아무리 뛰어난 능력을 갖춘 프로덕트 매니저라도 각각의 업무를 하나로 연결해 서 종합적인 사고를 할 수 없다면 의미가 없다. 예를 들어 마티 케이건의 벤다이어그램에 서 사용자 경험과 사업적 효용만 생각한 제품이라면 기술적인 결함으로 인해 결국 안정 적으로 운영될 수 없으며, 사용자 경험과 기술적인 결합만을 생각한 제품이라면 사업적 으로 영속이 불가능해서 실패할 수밖에 없다. 마지막으로 사업적인 목적이 뚜렷하게 반 영된 기술이라고 하더라도 사용자가 쓸 수 없다면 범용성을 띠지 않아 결국 아는 사람만 아는 서비스가 된다. 비단 이와 같은 업무 영역이 아니고도 프로덕트 매니저는 제품이 시 장에 안착하여 사용자 반응을 끌어내는 역할을 하게 된다. 조직마다 비어 있는 공간이 다 르기 때문에 각 조직의 프로덕트 매니저는 개개인의 특성을 가질 수밖에 없다.
- 요구사항 정의서가 방향을 정하는 것이라면 실제로 어떻게 그 방향으로 나아 갈지를 결정하는 것은 화면 설계서이다. 두 문서는 서로 영향을 주고받기 때문에 하나의 문서로 작성되는 경우가 잦다. 한 팀에 프로덕트 매니저, 화면, 사용자 경험 설계 전문가, 프로덕트 디자이너가 모두 있다면 프로덕트 매니저가 요구사항 정의서, 화면 설계 전문가 가 화면 설계서 그리고 실제로 이를 디자이너가 구현할 것이다. 하지만 앞서 말한 것과 같 이 프로덕트 매니저가 요구사항 정의서와 화면 설계서를 함께 작성하는 경우가 더 잦다. 이유는 화면 설계서가 기본적으로 상위 정책을 바탕으로 하고 이에 대한 충분한 이해로 작 성해야 하기 때문이다. 사용자 경험 자체에 집중하는 것이 디자이너 역량을 더 살릴 수 있 기 때문에 상위 정책이 복잡하고 이에 대한 정확한 반영이 필요한 경우에는 프로덕트 매니 저가 이 업무를 담당하는 것이 효율적이다. 이와 같은 경우는 담당자가 여럿이기 때문에 각자의 업무에 집중할 수 있는 만큼 반대로 서로가 같은 공감대를 이루기 위한 커뮤니케이 션 비용이 증가한다. 반면 화면 설계서를 별도로 작성하지 않고 요구사항 정의서를 보고 제품팀이 곧바로 제품을 구현하는 경우도 있다. 조직마다 문화가 다르고 이는 그 조직에서 효과적이라고 생각하는 커뮤니케이션 방식과 닿아있으므로 우선 지금 당장 벌어지고 있는 커뮤니케이션 방식과 문법을 파악하는 것이 중요하다.
주니어 프로덕트 매니저라면 당장 기획서를 작성해야 할 때 자신의 스타일이나 커뮤니케 이션 방식이 적립되어 있지 않기 때문에 두려울 수 있다. 그렇다면 가장 먼저 해야 하는 일은 속한 조직에서 사용하는 문서를 확인하는 것이다. 조직에서 통용되는 문서의 종류 와 기준은 회사의 조직문화가 강하게 연결되어 있다. 가장 효율적인 커뮤니케이션 방식 은 기존의 방식이다. 제 아무리 대단히 뛰어난 방식이라도 현재 조직에서의 학습 비용이 필요하고 적응 기간이 필요하기 때문에 근본적으로 변화의 필요성이 없을 때에는 구관 이 명관이라는 것이다. 물론 기존 업무 방식에 개선점은 있을 수 있다. 조직에서 작성하 는 문서에 익숙해진다면 이 장에서 다루는 내용을 자신의 업무에 적용하면서 나에게 가 장 잘 어울리는 스타일을 정하자. 물론 기본적인 조직의 기조는 있겠지만 조직에서 필요 한 부분을 찾아서 당신의 커뮤니케이션 스타일과 문서 작성에 녹일 수 있다면 그것이 당신의 경쟁력이 될 것이다.
- 최종 시안이 확정되고 나면 디자인 담당자는 해당 시안을 바탕으로 프런트 구현 작업을 진행할 수 있도록 디자인 리소스를 마크업 담당자에게 전달한다. 전달 방식은 조직별로 다르다. 디자인 작업 원본 파일 형태로 전달하거나 제플린, 피그마 등 협업 툴을 통해 전 달하기도 한다.
웹 제품에서 디자인 다음으로 진행되는 작업은 마크업 개발이다. 마크업은 간단히 말 하면 이미지로 된 디자인이 코드로 된 웹페이지로 만들어지기 위한 연결고리와 같은 작 업이다. 마크업 개발자는 디자인 리소스를 바탕으로 제품을 구성하는 페이지를 하나씩 html 형태로 구현해낸다. 이 마크업 페이지는 실제로 동작하는 것은 아니고 말 그대로 제품의 디자인을 고스란히 코드 형태로 옮긴 것으로 보면 된다. 브라우저에 띄워 놓으면 실제 제품 페이지로 보이지만 클릭을 한다고 해서 무언가가 바뀌지도 움직이지도 않는 껍데기뿐인 페이지라고 생각하면 쉽다. 그러나 마크업으로 구현된 이상 그것은 더 이상 단순한 이미지가 아닌, 코드로 짜여진 웹페이지이다. 그리고 이렇게 만들어진 마크업을 가지고 실제로 동작하는 페이지를 만들어내는 것이 바로 프런트 개발에서 진행하는 작업이다. 
마크업 담당자가 1차 마크업 결과물을 완성하면 우선 프로덕트 매니저에게 이를 공유하 고, 프로덕트 매니저는 마크업 결과물을 검토하면서 기획서와 다르게 구현된 부분이 있 는지 확인한다. 필요시 마크업 담당자에게 수정을 요청해서 결과물에 반영시킨다. 경우 에 따라서는 마크업에 굳이 반영할 필요 없이 프런트 개발에서 처리가 가능한 것도 있으니, 마크업 담당자의 의견을 참고하도록 하자.
프로덕트 매니저가 요청한 수정 사항이 마크업에 모두 반영되면 디자인 담당자에게 디자인 필터링을 요청한다. 디자인 필터링이란 마크업 결과물이 시각적으로 디자인을 정확하 게 반영하고 있는지 디자이너가 검수하는 작업을 말한다. 필터링 작업이 필요한 이유는 코드 영역에서 이루어지는 마크업 작업을 하다 보면 디자인과 완전하게 일치하지 않는 부분이 발생할 수 있기 때문이다. 비록 일반적인 사용자는 눈치채기 어려운 미세한 차이 일지라도 제품의 시각적인 모양새는 본질적으로 디자이너의 손에서 만들어진 디자인과 동일해야 한다. 디자인 담당자는 이러한 필터링 작업을 통해 이미지로 된 디자인 결과물 을 제작하는 것을 넘어서 실제로 구현된 제품의 디자인을 감독하는 역할 또한 수행하게 된다.
- 디자인 필터링에서 마크업에 수정이 필요한 부분이 발견되면 디자인 담당자가 이를 마크 업 담당자에게 전달하고 마크업 담당자는 다시 해당 사항을 수정 반영하여 마크업을 완 성한다. 다만 마크업은 이 시점에서 최종본이 완성되었다고 보기는 어렵다. 이후 마크업 을 전달받아 프런트 개발을 진행하는 과정에서 이번에는 프런트 개발 담당자가 마크업 담당자에게 수정을 요청할 수도 있기 때문이다. 디자인 필터링에서 전달되는 수정 요청 이 마크업이 시각적으로 구현한 부분에 대한 요청이라면 프런트 개발 과정에서 전달되는 수정 요청은 코드 레벨에서의 요청이다. 사실 이 중에서 프로덕트 매니저가 직접적으로 관여할 수 있는 부분은 없다. 그러나 현재 제품 구현이 어느 단계를 지나고 있으며 각담 당자가 어떠한 작업을 진행하고 있는지, 어떤 상황이 발생하고 있는지는 항시 파악하고 있어야 하므로 이러한 작업의 흐름은 반드시 이해하고 있어야 한다.
- 백엔드 개발은 디자인이나 마크업 등 별도 작업 없이 기획이 완성된 시점부터 바로 착수 할 수 있다. 물론 이는 백엔드 개발자가 바로 코딩을 통한 구현을 시작할 수 있다는 의미 는 아니다. 기획서를 만들 때 문서 자체를 작성하는 일보다 그 내용을 구상하고 결정하는 것이 본질적으로 더 중요하듯이 개발 작업 또한 직접적인 코딩 외에도 머릿속으로 전체 적인 설계를 잡는 것이 매우 중요한 부분이다. 특히 백엔드 개발이 맡은 것은 제품의 밑바탕을 이루는 데이터 흐름을 구현하는 것으로, 가장 눈에 보이지 않는 부분이지만 이것 에 문제가 생기면 제품 전체가 무너질 수밖에 없다.
제품을 상점에 비유한다면 프런트 개발에서 구현하는 것은 상점 내부를 가지런하게 꾸미고 쾌적하게 유지하는 것, 상점에 들어온 손님에게 전반적인 서비스 제공, 손님이 구매하 려는 상품을 전달하고 결제를 진행하는 부분일 것이다. 이에 비해 백엔드 개발에서 구현 하는 것은 상점에서 판매할 상품의 유통 및 재고관리, 회원제로 운영되는 상점이라면 고 객 정보 관리, 손님이 구매한 상품과 결제 정보를 받아서 장부를 기록하고 정산하는 부분 이라고 볼 수 있다. 백엔드에서 한번 잡아 놓은 구조를 나중에 가서 바꿔야 한다면 이는 제품의 모든 로직과 프런트 설계에까지 영향을 미치며, 그만큼 규모가 큰 작업이다. 그것 이 사용자 입장에서는 아무런 차이를 감지할 수 없는 변경이라 할지라도 말이다. 따라서 백엔드 개발자는 실제 구현 작업에 들어가기 전, 안정적으로 장기간 유지 운영이 가능하면서도 제품 오픈 이후 변경 요구사항이 발생할 수 있음을 고려하여 가급적 유연한 구조로 백엔드를 설계하는 데에 많은 공수를 들이게 된다. 
- 회고의 목적과 형식
제품을 신규로 오픈하거나 대대적 개편 이후 담당 실무자들이 모여서 지난 과정을 돌아 보면서 의견을 나누는 것을 회고라고 한다. 회고는 프로젝트 완료를 함께 자축하기 위함 도 있지만, 가장 중요한 목적은 지금까지의 업무 진행 방식과 내용에 대해 좋았던 점과 그렇지 못했던 점을 함께 짚어보면서 앞으로도 함께할 팀 내 협업 역량을 성장시키는 것 이라고 할 수 있다. 하나의 제품 프로젝트로 모인 실무자들은 별다른 특이사항이 없으면 대개 앞으로도 계속 해당 제품을 담당하게 되기 때문에 이후 협업을 더 매끄럽고 효율적 으로 진행하기 위해서도 회고는 필수적이다.
회고는 주로 프로젝트의 PMProject manager 역할을 담당했던 프로덕트 매니저가 준비하고 진행한다(경우에 따라 개발이나 디자인 등 프로젝트에 참여한 직군별로 회고를 준비할 수도 있다. 필요하다고 판단되면 직군별 리더에게 회고 준비를 요청하자). 정해진 형식 은 없지만 기본적으로 다음과 같은 내용을 정리하여 공유하고, 이후 모두가 함께 자유로 운 형태로 후기를 나누는 방식으로 진행된다고 생각하면 된다.
- 보고의 목적과 형식
제품 오픈 또는 개편 이후, 프로젝트 PM은 해당 프로젝트를 승인한 상위 의사결정권자 에게 프로젝트 완료 직후 성과에 대한 보고를 진행한다. 보고의 목적과 성격은 회고와는 전혀 다르다. 회고는 실무자들이 모여서 서로를 위한 피드백을 주고받는 자리라면, 보고 는 의사결정권자에게 인정받기 위한 자리다.
열심히 만들고 개선한 제품은 사용자들에게 평가받을 것이고 결과는 지표로 나타날 것이다. 프로덕트 매니저는 지표를 기반으로 의사결정권자에게 오픈 또는 개편의 성과를 어필하고 해당 조직에서 그 제품이 갖는 중요도와 의미를 각인시켜야 한다.
물론 제품 자체가 너무나 훌륭하고 제품팀의 역량도 뛰어나다면, 제품은 순조롭게 성장 할 것이다. 그러나 구성원이 열심히 하기만 하면 조직의 인정과 보상이 따라오는 것은 아 니다. 어필하지 않으면 성과가 존재하지 않게 되는 경우가 비일비재하다. 그뿐만 아니라 조직에서 인정받는 제품일수록 당연히 그것을 운영, 개선, 성장시켜 나가는 데 필요한 지 원도 우선적으로 받게 된다.
따라서 상위 보고를 할 때에는 겸손은 잠시 접어 두도록 하자. 프로젝트 성과 위주로, 마 땅히 인정받아야 하는 부분을 효과적으로 전달할 수 있어야 한다. 물론 제품을 오픈 또는 개편하자마자 바로 눈부신 성과가 나타나는 경우는 극히 드물다. 지표 수치 이외에도 객 관적으로 제시할 수 있는 사용자들의 긍정적인 반응, 제품의 핵심 가치와 성장 비전, 앞 으로의 마일스톤을 정리하여 제시할 수 있어야 한다. 또한 지금은 부족해 보이는 부분일지라도 어떤 방식으로 보완해 나갈 것인지에 대한 계획과 기대 성과에 대한 예상치에 대 해서도 설득력 있는 내용을 준비해야 한다.
이러한 보고와 어필을 어떻게 해내느냐에 따라서 본인은 물론 함께 협업하는 동료들의 성과에 대한 평가도 달라질 수 있음을 염두에 두고, 본업만큼 성실하게 보고를 준비하도 록 하자. 결국 상위 의사결정권자나 조직장과의 커뮤니케이션도, 유관부서와의 커뮤니케 이션과 마찬가지로 프로덕트 매니저의 주요 역할 중 하나이기 때문이다.

- CS 대응 가이드란 접수된 고객 문의/불만에 대한 답변을 어떤 내용과 방식으로 진행할 것인지 정의한 것을 말하며, 기본적으로 갖추어야 할 구성은 다음과 같다.
* 예상 문의/불만사항 항목과 그에 대한 답변 스크립트
* 예상 항목 이외의 내용이 인입되었을 경우 대처 가이드 (ex. 고객센터 담당자가 프로덕트 매니저에게 문의내용 이관)
* 강성 항의에 대한 대응 가이드 (ex. TO DO, NOT TO DO, 모범 답변 스크립트 등)
* 고객센터에서 제품팀으로 필수 공유가 필요한 대상 정의 (ex. 서비스 오류 제보, 고객에게 피해발생 사례 등)
* 답변 처리 기간 기준 (ex. 인입 후 영업일 기준 5일 이내 답변 처리)

 

'IT' 카테고리의 다른 글

AI 혁명의 미래  (3) 2023.05.25
인공지능 파운데이션  (4) 2023.05.13
AI 2041  (0) 2023.03.23
웹 3.0 사용설명서  (2) 2023.03.17
최소한의 IT언어  (2) 2023.02.24
Posted by dalai
,

AI 2041

IT 2023. 3. 23. 20:44

-  미국의 과학자이자 미래학자였던 로이 아마라Roy Amara가 주창한 '아마라 법칙'에 따르면 "우리는 기술의 단기 효과를 과대평가하고 장기 효 과는 과소평가하는 경향이 있다." 마찬가지로 대부분 사람이 인공지능 을 협소한 의미에서 생각한다. 이를테면 영화 <터미네이터>에 나오는 살 인 로봇, 재치라곤 전혀 없거나 인간의 존재를 위협하는 불완전한 알고 리즘, 인간이 세계를 인식하고 감정을 주고받으며 소통하고 제도를 관 리하고 삶의 다른 가능성을 탐색하는 방식과 무관한 삭막한 기술의 발 명을 떠올린다.
기원전 3세기 중국 춘추전국시대에 오늘날 휴머노이드에 해당하는 인간의 모습과 흡사한 거대 인형을 만들었던 공예기술자 얀스Yan Shi의 이야기나 그리스 신화에서 불의 신 헤파이스토스가 살아 있는 청동 거 인 탈로스Talos를 만들어 크레타섬의 왕에게 선물했다는 이야기에서 볼 수 있듯이, 인간은 컴퓨터과학이 등장하기 이전부터 혹은 인공지능이라 는 용어가 탄생하기 훨씬 전부터 집요하게 '인공지능'을 탐구해왔다. 오 늘날에도 인공지능은 인류 문명 전반에 걸쳐 혁명적인 변화를 일으키고 있으며, 앞으로도 그럴 것이다.

- 다른 누군가의 삶을 완벽하게 모방하기보다 당신 자신의 운명을 불완전하게 사는 게 낫다. (《바가바드 기타> 3장 35절)
- 인간의 뇌는 1,000억 개가 넘는 신경세포가 100조 개 이상의 시냅스를 통해 병렬적으로 연결된 구조로 되어 있다. 딥러닝은 이러한 인간 뇌의 복잡한 신경망을 모방한 인공신경망을 수학적으로 모델링한 것이라 볼 수 있다. 딥러닝은 입력층과 출력층을 포함한 수천 개의 신경망, 즉 소프 트웨어층으로 구성된다. 기존 인공신경망이 가졌던 한계를 뛰어넘은 딥 러닝은 풍부한 학습 데이터와 결합하면서 음성인식과 객체인식 등의 분 야에서 놀라운 발전을 가져왔다.
사람들은 흔히 인공지능이 "고양이는 귀와 수염이 뾰족하다"와 같은 일련의 패턴화된 규칙들을 통해 '학습한다고 생각한다. 하지만 딥러닝 은 인간이 만든 그러한 규칙들의 개입이 없을 때 더 잘 작동한다. 딥러닝은 특정 규칙이 아닌 다양한 현상들의 데이터가 입력되면 스스로 데이 터들의 패턴과 상관관계를 파악하고 계산하는데, 이 작업은 이미 출력 층에 설정된 '올바른 답과 연관되어 이루어진다. 딥러닝 신경망의 입력 층과 출력층 사이에 존재하는 무수한 소프트웨어층은 입력된 특정 데이 터들로부터 올바른 답을 얻을 가능성을 극대화하기 위해 스스로 훈련하 고 학습한다.
예컨대 연구자가 고양이를 찍은 사진과 고양이가 아닌 다른 동물을 찍은 사진을 구별하는 법을 딥러닝 신경망에 가르치려 한다고 가정해보 자. 우선 연구자는 출력층에 미리 '고양이' 또는 '고양이 아님'을 결괏값 으로 설정한다. 그리고 수백만 장의 샘플 사진을 입력층에 보낸다. 딥러 닝의 신경망은 수백만 개의 이미지에 나타난 특징들 가운데 어느 것이 고양이와 다른 동물을 식별하는 데 가장 유용한지 스스로 파악하도록 훈련된다. 이 훈련은 고양이 이미지를 입력하면 '고양이'가 출력되고 고 양이가 아닌 이미지를 입력하면 '고양이 아님'이 출력될 가능성을 극대 화하기 위해 딥러닝 신경망에 있는 수백만(때론 수십억 개의 매개변수를 조정하는 수학적 과정이다. 
- 딥러닝 신경망의 훈련은 '목적함수'의 값을 극대화하기 위한 수학 적 연산 과정이기도 하다. 고양이 인식 사례의 경우, 목적함수는 '고양 이' 또는 '고양이 아님을 올바르게 인식할 확률이다. 일단 '훈련된' 딥러 닝 신경망은 새로운 이미지를 입력해도 여전히 올바른 답을 얻을 수 있 는 거대한 수학 방정식이나 마찬가지다. 이 방정식에 따라 이미지에 고 양이가 있는지 없는지 판단하는 '추론'을 수행한다. 딥러닝의 등장은 이 전에는 불가능했던 많은 영역에서 인공지능을 적용할 수 있도록 해주었다. 
- 딥러닝이 아무리 강력하다 할지라도 만병통치약은 아니다. 인간은 인공지능처럼 동시에 수많은 데이터 포인트를 분석할 수는 없지만, 대신 의사결정을 위해 경험, 추상적 개념, 상식을 이용하는 고유한 능력을 지 니고 있다. 반면에 딥러닝이 잘 작동하려면 방대한 데이터, 한정된 범위, 최적화를 위한 구체적인 목적함수가 필요하다. 이 가운데 하나라도 부 족하면 제대로 작동하지 않을 수 있다. 데이터가 너무 적다면? 알고리즘은 데이터 간의 의미 있는 상관관계를 발견하기에 충분한 예시를 갖지 못할 것이다. 복수의 분야를 다뤄야 한다면? 알고리즘은 서로 다른 분야 간 상관관계를 설명할 수 없으며, 모든 순열을 포함할 만한 충분한 데이 터를 얻지 못할 것이다. 목적함수가 너무 광범위하다면? 알고리즘은 최 적화를 달성하는 데 필요한 명확한 지침을 얻지 못할 것이다.
- 시각은 인간의 여섯 가지 감각 가운데 가장 중요하다. 컴퓨터 비 전computer vision은 컴퓨터의 '보는' 능력에 관한 문제를 중점적으로 다루 는 인공지능의 하위 분야다. 여기서 '본다'라는 것은 '본 것을 이해하는 것'까지 포함한다. 컴퓨터 비전은 다음과 같은 기술을 포함하고 있으며, 이런 기술들은 점점 더 복잡해지고 있다.
* 이미지 포착 및 처리: 실제 세계의 3D 장면을 카메라와 다른 센서들을 이용해 동영상으로 구현한다. 각 동영상은 연속적인 이미지들로 구성되며, 각 이 미지는 2D로 배열되는 픽셀의 집합체로 만들어진다.
* 대상 감지 및 이미지 세분화: 이미지를 뚜렷한 부분들로 나누고 대상이 어디에 있는지 찾는다.
* 대상 인식: 대상을 인식하고 세부 정보를 이해한다. 가령 대상이 강아지임을 인식하고 그 강아지가 독일산 셰퍼드라는 것까지 이해한다.
* 대상 추적: 연속적인 이미지나 동영상에서 움직이는 대상을 추적한다.
* 몸짓과 움직임 인식: 엑스박스Xbox 댄싱 게임에서 캐릭터의 춤추는 동작과 같은 움직임을 인식한다.
* 장면 이해: 어떤 장면을 전체적으로 이해한다. 예를 들어, '뼈다귀를 바라보는 배고픈 강아지'처럼 장면 속의 여러 대상이 갖는 미묘한 연관성까지도 함께 파악한다.
- 우리는 이미 매일 컴퓨터 비전 기술을 사용하고 있다. 컴퓨터 비전은 교통부터 보안에 이르는 다양한 분야에서 실시간으로 사용될 수 있다. 이 미 사용되고 있는 예는 다음과 같다.
* 졸고 있는 운전자를 감지하도록 자동차에 설치된 운전자 보조 기능
* 아마존고Amazon Go와 같은 무인 매장(쇼핑 카트에 물건을 담을 때 카메라가 인식한다.)
* 공항 보안(사람들의 수를 세고, 테러리스트를 인식한다.)
* 몸짓 인식(엑스박스 댄싱 게임에서 각 캐릭터의 춤추는 동작을 인식하고 점수를 매긴다.)
* 얼굴 인식(스마트폰 잠금 해제를 위해 얼굴을 인식한다.)
* 스마트카메라(아이폰의 인물 사진 모드는 전경에 있는 사람들을 인식해 추출한 후 배경을 '아름답고 흐릿하게 처리해 DSLR과 같은 효과를 낸다.)
* 군사적 적용(적군과 민간인을 구별한다.)
* 드론과 자동차의 자동항법 시스템
- 컴퓨터 비전은 이미지와 동영상에도 적용할 수 있는데, 몇 가지 예를 살펴보자.
* 사진과 동영상의 스마트 편집(포토샵과 같은 도구들은 얼굴 윤곽을 따라 테두 리를 그릴 수 있고, 충혈된 눈을 없앨 수도 있다. 셀카 사진을 아름답게 업그레이 드하는 데 컴퓨터 비전이 광범위하게 사용된다.)
* 의료 영상 분석(폐 CT에서 악성 종양이 있는지 판단하기 위해 사용한다.) 콘텐츠 감시(소셜미디어에서 포르노와 폭력적인 콘텐츠를 감지한다.)
* 특정 동영상의 콘텐츠를 분석해 관련 광고가 보이도록 하는 시스템
* 스마트 이미지 검색(키워드나 다른 이미지를 검색창에 입력해 이미지를 찾는다.)
* 딥페이크 동영상 제작(동영상에서 하나의 얼굴을 다른 얼굴로 대체한다.)
- 장기적으로 가장 큰 문제는 GAN이 위조신경망을 '업그레이드'하는 메커니즘을 내장하고 있다는 점이다. 예를 들어, 당신이 GAN의 위조신 경망을 학습시켰고 누군가 당신의 딥페이크를 탐지하기 위한 새로운 탐 지 알고리즘을 내놓았다고 생각해보자. 당신은 그 탐지 알고리즘을 속 이려는 목표를 갖고 GAN의 위조신경망을 재훈련시킬 수 있다. 이는 결 국 어느 쪽이 더 우수한 컴퓨팅 성능을 지닌 장비를 갖추고 있느냐 하는 군비 경쟁이 될 수밖에 없다. 컴퓨팅 성능이 뛰어난 장비일수록 GAN을 더욱 잘 훈련시킬 수 있기 때문이다.
- 그렇다면 딥페이크를 100% 찾아내는 것은 불가능할까? 지금 당장은 어렵겠지만 장기적인 접근법이 한 가지 있다. 원본이 변경되지 않았 음을 보장해주는 블록체인 기술을 사용해 카메라나 스마트폰으로 찍히 는 모든 사진과 동영상의 진위를 촬영 시점에 확인하는 것이다. 그런 다 음 웹사이트에 올리는 모든 사진과 영상은 블록체인 기술로 인증되었 음을 보여주면 된다. 이렇게 하면 위조된 이미지나 동영상이 퍼져나가 는 것을 막을 수 있다. 하지만 그러려면 (현재 모든 오디오 수신기가 돌비 디지털을 사용하는 것처럼) 모든 장치가 블록체인 기술을 사용해야 하고, 블록체인이 이것을 대규모로 처리할 만큼 빨라져야 한다. 이는 아마도 2041년까지는 구현되기 어려울 듯하다.
- 기술이 발전하면서 어떤 컴퓨팅 플랫폼에서든 취약점과 보안상의 위험이 나타난다. 개인용 컴퓨터PC의 바이러스, 신용카드의 신원 도용, 이메일의 스팸 등이 그러한 예이다. 인공지능이 주류가 되면 인공지능 역시 취약점에 대한 공격을 받게 될 것이다. 딥페이크는 그러한 여러 취약점 가운데 하나일 뿐이다.
인공지능이 적대적인 공격을 받을 수 있는 또 하나의 취약점은 데이 터를 분류하는 기준값인 결정경계decision boundaries이다. 누군가 결정경 계를 추정해 입력 데이터를 위장하면 인공지능이 실수하도록 만들 수 있다. 가령 한 연구자는 인공지능이 그를 영화배우 밀라 요보비치 Milla Jovovich로 잘못 인식하게 하는 선글라스를 설계했다. 또 다른 연구자는 테슬라 모델S의 자율주행 기술인 오토파일럿Autopilot을 속이는 스티커" 를 도로에 붙여 차선을 바꾸고 다가오는 차들을 향해 돌진하도록 만들 었다. <가면 뒤의 신> 도입부에 아마카는 전철역에서 안면인식 시스템을 속이기 위해 마스크를 사용한다. 이런 종류의 위장술이 전쟁에서 이용 될 경우 극도로 위험하다. 적군에서 탱크를 구급차로 인식하도록 위장 했다고 상상해보라.
- 포이즈닝poisoning이라고 부르는 또 다른 공격은 의도적으로 악의적인 훈련 데이터 training data를 주입함으로써 인공지능의 학습 과정에 직접 관 여해 모델 자체를 공격한다. 이로 인해 인공지능 시스템 전체가 망가질 수 있으며 혹은 범법자에 의해 제어될 수도 있다. 군사용 드론이 테러리 스트에게 해킹당해 자국을 공격한다고 상상해보라. 이러한 공격은 기존 의 해킹보다 더 감지하기 어려운데, 인공지능 모델이 정해진 컴퓨터 코 드가 아니라 수천 개의 신경망에서 실행되는 극도로 복잡한 방정식이라 서 '디버그debug', 즉 오류를 수정하기가 쉽지 않기 때문이다.
이러한 난제들에도 불구하고 우리는 훈련과 실행 환경의 보안을 강화 하고, 포이즈닝 신호를 자동으로 찾는 도구를 개발하고, 조작된 데이터 나 회피 공격에 대항해 싸우는 기술을 개발하는 것과 같은 조치를 취할 수 있다. 기술 혁신으로 스팸과 바이러스를 극복한 것처럼 인공지능 보 안 기술도 충분히 발전하면 오직 간헐적인 공격만 받게 될 것이다(지금 도 가끔 스팸이나 바이러스의 공격을 받는 것처럼 말이다). 기술에 의한 취 약점은 항상 기술적 해법으로 해결되거나 개선되었다.

- 사랑하는 친구여, 우리 둘은 태양과 달이며 바다와 육지다. 우리의 목표는 나는 네가 되고 너는 내가 되는 게 아니라 서로를 인식하고 상대방을 있는 그대로 지켜보고 존중하는 것이다. 그렇게 해서 서로가 대립하면서도 보완하는 관계를 만드는 것이다. _헤르만 헤세, 《지와 사랑》 중
- 몇 년 전만 해도 사실상 모든 딥러닝 기반 NLP 신경망은 '지도학습'을 이용해 언어를 배웠다. '지도'라는 단어는 인공지능이 학습할 때 각 훈련 입력값에 대해 올바른 출력값이 주어져야 한다는 뜻이다(이 '지도'를 인 간이 인공지능에 규칙을 '프로그래밍'한다는 뜻으로 생각해선 안 된다. 1장 에서 봤듯이 그런 방식은 통하지 않는다). 인공지능은 한 쌍의 분류된 데이 터인 입력값과 올바른 출력값을 받는다. 그런 후 특정 입력값에 해당하 는 올바른 출력값을 제시하는 법을 배운다. 인공지능이 고양이 사진을 인식한 예를 기억하는가? 지도학습 방식의 딥러닝은 인공지능이 '고양 이'라는 단어를 제시하는 법을 배우는 훈련 과정이다.
인공지능이 자연어를 배우도록 지도학습을 적용하려면 우선 특정 목적에 맞게 분류된 데이터 세트가 있어야 한다. 가령 동일한 콘텐츠에 대 한 다국어 번역 데이터가 존재한다면, 이는 인공지능이 스스로 언어 번 역을 배우도록 하는 지도학습을 위한 데이터 세트가 될 수 있다. 이러한 데이터 세트가 있으면 인공지능은 영어로 된 수백만 개의 문장 하나하 나를 프랑스어로 전문적으로 번역된 문장 하나하나와 짝짓는 방식으로 스스로 훈련한다. 지도학습 방식의 NLP 응용프로그램은 사람의 말소리 를 글로 변환하는 음성인식, 손글씨나 이미지를 글로 번역하는 광학문 자인식OCR 혹은 글을 말소리로 변환하는 음성합성까지 확장될 수 있다. 이러한 지도학습이 가능한 종류의 자연어 인식 작업의 경우 이미 인공 지능이 대부분 인간보다 더 뛰어나다.
- 좀 더 복잡한 수준의 NLP 응용프로그램은 '인식recognition'에서 '이 해understanding'의 수준으로 넘어간다. 이 기술적 비약을 위해서는 말이 나 글이 가리키는 행동의 예시가 주어져야 한다. 가령 당신이 알렉사에 게 "바흐를 틀어줘"라고 말하면, 알렉사는 당신이 요한 제바스티안 바흐 가 작곡한 클래식 작품을 재생하길 원하는 것이라고 이해해야 한다. 혹 은 전자상거래 챗봇에게 "난 환불을 원해"라고 말하면 챗봇은 당신에게 해당 상품을 반품하는 방법을 안내한 뒤에 구매대금을 되돌려줄 수 있 어야 한다. 이러한 이해의 수준에서 지도학습 방식의 NLP 응용프로그램 을 개발하는 것은 매우 많은 시간이 걸리는 일이다. 인간은 한 가지 의도 나 명제를 정말 수많은 방식으로 표현하기 때문이다. 가령 당신은 "난 환 불을 원해"라고 말하는 대신 "나는 돈을 돌려받길 원해"라든가 "토스터 에 결함이 있어"라고 말할 수도 있다.
- 명료하고 구체적인 대화에서 상상할 수 있는 모든 다양한 표현이 NLP 훈련 데이터에 포함되어야 한다. 또 데이터는 인공지능이 스스로 학습 하는 데 필요한 단서를 제공하기 위해 인간의 목적에 맞게 '분류labeling' 되어야 한다. NLP 신경망의 지도학습을 위한 데이터 레이블링은 최근 20년간 거대 산업을 형성했다. 일례로 자동화된 항공사 고객 서비스 시 스템에서 언어 이해 훈련용으로 분류된 데이터는 다음과 같다.
[항공_예약_의향] 나는 [방법: 비행기를 타다]를 원합니다. [출발지: 보스턴]으로 부터 [출발 시간: 오전 838]에 출발하여 [목적지: 덴버]에 [도착 시간: 아침 1110] 에 도착하길 바랍니다.
이것은 아주 기초적인 예시다. 이 정도 상세한 수준에서 수십만 건의 인간 언어를 기록하고 분류하는 데 드는 비용을 상상해보라. 비행기 예 약이라는 협소한 분야에서조차 모든 가능한 표현을 다루려면 아직 가야 할 길이 한참 남은 상태다.
- 지난 수년 동안 '이해' 수준의 NLP 응용프로그램 개발은 협소한 특정 분야에 수많은 시간과 비용을 기꺼이 투자할 의향이 있을 때만 가능했 다. 이러한 한계로 인해 인공지능이 인간 수준으로 언어를 이해하고 처 리하는 단계로 나아간다는 원대한 비전을 달성하기가 어려웠다. 우리는 여전히 NLP 신경망의 지도학습을 위해 모든 입력값에 대한 올바른 출 력값을 제공하는 방법을 알지 못한다. 설령 그 방법을 안다 해도 세상에 존재하는 모든 언어 데이터 세트를 목적에 맞게 분류하는 것은 엄청나 게 많은 시간과 비용이 드는 일이 될 것이다
- 그런데 최근에 '자기지도학습'이라는 단순하면서도 우아한 새로운 접근법이 출현했다. 자기지도학습 방식에서는 방대한 데이터 분류 작업이 필요하지 않기 때문에 앞서 언급된 문제를 극복할 수 있다. 이 접근법은 '시퀀스-투-시퀀스'라고 불린다. 시퀀스-투-시퀀스는 순환신경망을 사용해 문장을 학습하는 기법으로 인공지능은 시퀀스로 이루어진 대화 의 말뭉치***를 학습함으로써 선행 발화가 후행 발화로 변환되는 확률을 계산해 대화를 생성해낸다. 가령 '87년 전에'라는 발화가 입력되면 RNN 이 다음에 올 내용을 예측해 '우리의 선조들이 이 땅에 나라를 세웠다'라는 발화를 출력할 수 있다. 사실 우리는 이 기술의 간단한 버전을 이미 매일 사용하고 있다. 지메일의 '스마트 완성' 기능이나 구글 검색의 '자 동 완성 기능이 바로 그 예다.
2017년에는 구글 연구진이 '트랜스포머transformer'라는 새로운 자기지 도학습 방식의 딥러닝 모델을 소개했다. 이 모델에서 인공지능은 문장 속 단어들의 관계를 추적해 맥락과 의미를 학습한다. 이 모델은 인공지 능이 대량의 텍스트를 바탕으로 훈련될 경우 과거에 있었던 '중요하고 의미상 관련 있는' 무엇이든 선별적으로 기억하는 '어텐션 메커니즘'**이 가능하다는 것을 보여준다. 이 메커니즘 덕분에 인공지능은 입력된 문장의 맥락을 훨씬 더 정교하게 파악해 출력값을 내보낸다.
- CNN이나 RNN에 비해 한층 강화된 딥러닝 모델인 트랜스포머는 처 음부터 스스로 언어를 가르칠 수 있다. 용언 활용이나 문법과 같이 인간 이 정한 규칙 대신 스스로 만든 규칙과 개념에 의존한다. 이러한 규칙과 개념은 방대한 데이터에서 자동으로 수집한 것으로 거대한 인공신경망 에 내장된다. 트랜스포머에 제공하는 데이터 역시 인간에 의한 분류 작 업을 하지 않아도 된다. 충분한 자연어 데이터와 처리 능력을 갖춘 트랜 스포머는 자기지도학습 방식의 딥러닝을 통해서 입력값과 출력값 사이 의 데이터에서 훨씬 많은 것을 탐지할 수 있다.
구글의 트랜스포머 뒤를 이은 것은 GPT-3 모델이다. 지금까지 가 장 뛰어난 자연어처리 기반 인공지능이라 할 수 있는 이 확장 버전은 2020년에 일론 머스크 등이 설립한 연구소 오픈에이아이에서 출시했다. 
- 토스터와 연필 중에 무엇이 더 무거울까?'라고 물으면, GPT-3는 '토스터'라고 올바르게 답한다. 첫 두 문장은 GPT- 3가 '더 무겁다'라는 표현의 구체적인 의미를 파악하는 데 도움을 주었 고, 마지막 문장은 답을 묻고 있다는 신호다. 마지막 문장만 입력해도 답 을 할 순 있지만, 아마도 오답을 제시할 가능성이 클 것이다.
GPT-3는 특정 산업, 분야, 영역 등에 특화된 언어인 DSLDomain Specif- ic Language을 사용하는 NLP 등 협소한 분야에 특화되었던 이전 모델과 달리 모든 분야의 다양한 과업들을 수행할 수 있다. 시를 짓고, 철학적 사색을 하고, 기사를 작성하고, 기술 매뉴얼을 제작하고 또는 특정 작가 의 스타일을 흉내 내서 글을 쓸 수도 있다.
- 우리 인간은 우리가 무엇을 알고 무엇을 모르는지 잘 안다. 하지만 GPT-3는 그렇지 않다. 이 결함 때문에 일종의 '가짜 뉴스'를 만들어낼 수도 있다.
GPT-3는 인과관계 추론, 추상적 사고, 설명식 문장, 상식, 의도적) 창 의성 부분에서도 취약하다. 또 인간에게서 나온 데이터를 너무 많이 학습하기 때문에 안타깝게도 인간의 편향, 편견과 악의까지도 흡수하게 되 는 치명적 약점이 있다. 사용자를 잘못 만날 경우에 GPT-3는 특정 그룹 의 사람들을 타깃으로 그들의 여론에 영향을 주기 위해 맞춤형 메시지 를 작성해 보내는 데 악용될 수도 있다. 이런 정치 단체가 있다면 2016년 미국 대선을 조작했다고 알려진 영국의 정치컨설팅업체인 케임브리지 애널리티카Cambridge Analytica보다 훨씬 더 위험할 것이다. 이러한 단점들 은 다가올 수십 년 동안 면밀하게 조사되고 해결되길 기대하고 있다.
- GPT-3의 잠재력 가운데 가장 흥미진진한 측면은 그것이 NLP 응용프 로그램을 빠르게 개발할 수 있는 새로운 플랫폼 역할을 할 수 있다는 것 이다. 실제로 GPT-3가 출시된 후 몇 달 만에 사람들은 많은 응용프로 그램을 개발했다. 가령 역사 인물과 대화할 수 있는 챗봇, 작성하기 시작 한 기타 악보를 마무리해주는 작곡 도구, 반쪽 이미지를 가지고 전체 이 미지를 완성할 수 있는 응용프로그램이 있다. 또 자연어 묘사(예: 발레 복을 입은 아기 무가 강아지를 산책시킨다)를 기초로 인물을 그릴 수 있는 달리 DALL.E라고 불리는 응용프로그램도 있다. 이러한 응용프로그램들은 현재로선 단순히 호기심을 유발하는 정도지만, 앞서 말한 결함이 해결 되면 GPT-3와 같은 플랫폼이 수만 명의 개발자가 더 많은 사용자를 끌 어들이는 멋진 응용프로그램을 만드는 선순환을 만들어낼 수 있다. 마 치 윈도와 안드로이드가 그런 것처럼 말이다.
- 대화형 인공지능 외에도 NLP 플랫폼은 어떤 질문에는 답할 수 있는 차세대 검색엔진이 될 수 있다. 질문을 던지면 NLP 검색엔진은 그 질문 과 관련된 모든 읽을거리를 읽고 소화해 해당 전문 분야 혹은 산업 특성 에 부합하는 맞춤형 답을 제공할 것이다. 가령 금융 인공지능 응용프로 그램은 '코로나19가 가을에 다시 확산된다면 투자 포트폴리오를 어떻게 조정해야 하나?'와 같은 질문에 답할 수 있다. 또 이 플랫폼은 스포츠 경 기나 주식시장 동향에 관한 기초적인 보고서를 작성할 수 있고, 아주 긴 보고서를 요약해줄 수도 있을 것이다. 그렇기에 기자, 투자분석가, 작가 등 언어를 가지고 작업하는 누구에게라도 훌륭한 동반자이자 도구가 될 수 있다.

- 산앵두나무꽃이 바람에 흩날리니 어찌 그대가 그립지 않으리오? 다만 그대 머무는 곳 멀어라. 
시를 읽고 공자께서 말씀하셨다.
"그리움이 부족하구나. 진정으로 그립다면 멀리 떨어진 것이 어찌 문제가 되겠는가?" 공자, <논어> 제9편 30장
- 딥마인드는 단백질 접힘 구조를 알아내기 위해(2단계) 2020년에 알파폴드AlphaFold2를 개발했다. 현재까지 인공지능이 과학을 위해 이룬 가장 위대한 업적이다. 단백질은 생명체의 구성 요소지만, 생 명 유지를 수행하기 위해 아미노산 배열이 어떻게 3차원 구조로 접히는 지는 수수께끼로 남아 있었다. 이는 심오한 과학적·의학적 함의를 가진 문제로 딥러닝에 매우 적합해 보였다. 딥마인드의 알파폴드는 기존에 발견된 단백질 접힘 구조의 거대한 데이터베이스를 바탕으로 훈련된 인 공지능이다. 알파폴드는 단백질 접힘 구조를 극저온 전자현미경과 같은 전통적인 방법들과 유사한 정확도로 파악해낼 수 있음을 증명했다. 전 통적인 방법들은 비용과 시간 때문에 모든 단백질의 0.1%도 해결하지 못했다. 알파폴드는 빠른 속도로 모든 단백질의 3차원 구조를 파악하는 방법을 제공했다. 알파폴드는 생물학계에서 '50년 묵은 대과제'를 해결 한 것으로 크게 환영받았다.
- 일단 단백질의 3차원 구조를 파악하고 나면 그다음 효과적인 치료법 을 발견하는 빠른 방법은 신약재창출drug repurposing, 즉 다른 질병에 효 과가 있는 것으로 증명된 모든 기존의 약을 대상으로 어떤 것이 해당 단 백질의 3차원 구조에 들어맞는지 확인하는 것이다. 신약재창출은 심각 한 팬데믹 확산을 초기에 막기 위한 응급처치가 될 수 있다. 기존의 약품 들은 이미 부작용 시험을 거쳤기 때문에 신약과 달리 광범위한 임상시험 없이도 사용될 수 있다.
- 인공지능 로봇은 앞 장들에서 설명한 인터넷과 금융, 인식 분야와 비교 해 완벽하게 구현하기가 훨씬 더 어렵다. 로봇의 문제는 딥러닝을 직접 적용해서 해결할 수 없기 때문이다. 게다가 로봇공학은 설계, 움직임, 조 작을 포함하므로 기계공학, 신체감각을 인식하는 인공지능, 소근육운동 조작 기술의 절묘한 상호작용이 필요하다. 이는 모두 해결할 수 있는 문 제들이긴 하지만, 미세 조정에 더 많은 시간이 걸리는 데다 학제적인 기 술의 통합이 필요하다.
로봇공학에서 인간의 시각, 움직임, 조작 능력은 정밀하게 복제돼야 한다. 로봇 기계는 자동화돼야 할 뿐만 아니라 자율성도 가져야 하는데, 이는 의사결정을 로봇에게 넘긴다는 뜻이다. 이렇게 되면 로봇은 계획 하고 피드백을 수집하고 환경 변화에 적응하거나 그에 따라 즉흥적으로 행동을 바꿀 수 있을 것이다. 로봇에 시각, 촉각, 이동 능력을 부여함으 로써 인공지능이 처리하는 과업의 수를 크게 늘릴 수 있다.
일반적인 인간 수준의 시각, 촉각, 조작, 움직임 및 조정은 향후 20년 이내에 인공지능 로봇으로 완벽하게 구현하기에는 대단히 까다로운 영 역이다. 각각의 능력은 제한된 환경에서 독립적으로 개발될 것이며, 시 간이 지남에 따라 차츰 제약 조건이 완화될 것이다. 현재 로봇의 컴퓨터 비전 능력은 노인들을 위한 안전장치(위험 상황을 경보로 알려주는 요양 보조 로봇), 조립공정에서 육안을 통한 검사, 에너지와 대중교통 산업에 서의 비정상행위 탐지 등에 적용될 수 있다. 한편 자율주행 로봇AMRs이 나 자율주행 무인지게차는 실내 공간을 자유롭게 이동할 수 있어서 스 스로 장애물을 '보고' 경로를 계획하며 화물을 옮길 수 있다. 현재 로봇 팔은 용접, 조립공정, 전자상거래 물류센터에서 이뤄지는 물품 피킹과 같은 분야에 적용되어 딱딱한 물체를 움켜잡고, 조작하고, 이동시킬 수 있다.

- 가상현실은 눈을 뜬 채 꿈을 꾸는 것과 같다. 브레넌 슈피겔 Brennan Spiegel
- 당신을 떠올리자..
이 늪의 반딧불이가
내 몸의 갈망에서 나온
영혼처럼 보이네. (이즈미 시키부 Izumi Shikibu)
- XR 글라스 외에도 XR 콘택트렌즈가 시장 대중화에 성공하는 최초의 확장현실 기술이 되지 않을까 싶다. 몇몇 스타트업은 이미 XR 콘택트렌 즈 개발에 착수했다. 그들이 내놓은 프로토타입 콘택트렌즈는 내장된 디스플레이와 센서를 통해 텍스트와 이미지를 보여준다. 이러한 콘택트 렌즈에는 여전히 외부 CPU가 필요한데 스마트폰이 그 역할을 할 수 있 다. 나는 2041년까지는 XR 콘택트렌즈의 시장 대중화가 이뤄지고 더 나 아가 사생활 보호와 각종 규제 및 가격 문제가 극복될 것으로 예상한다. 시각 정보가 글라스와 콘택트렌즈를 통해 입력된다면, 청각 정보는 이어셋을 통해 입력될 수 있다. 청각 정보를 처리하는 확장현실 기술 역시 해마다 발전하고 있다. 2030년이 되면 이어셋은 이머시브 사운드immersive sound 제작 기술을 비롯한 다른 음향 기술을 통해 거의 보이지 않을 만큼 소형화되고 덕분에 온종일 사용해도 전혀 불편하지 않을 것이다.
- 결론은 이렇다. 2041년까지 우리가 하는 일과 놀이의 많은 부분에 가상기술이 사용될 것이다. 이 불가피성을 받아들이고 적응해야 한다. 아 마도 확장현실 분야에서 거대한 기술적 비약이 일어날 것이며, 그것은 아마도 엔터테인먼트 산업에서부터 시작될 것이다. 현재 인공지능에 대 해 그러하듯이 모든 산업은 확장현실을 어떻게 사용할지 고민하고 결국 에는 수용하게 될 것이다. 인공지능이 데이터를 지능으로 전환하는 것 이라면, 확장현실은 인간의 눈, 귀, 팔다리 그리고 궁극적으로 뇌에서 더 많은 양질의 데이터를 모으게 될 것이다. 인공지능과 확장현실은 자신을 이해하고 더 발전하려는 인간의 꿈을 완성하고 그 과정에서 인간 경험의 가능성을 확장할 것이다.

- 그래서 두 가지 톤이 진행된다. 그건 마치 두 대의 기타를 동시에 치는 것과 같다. 자연스럽게 흐르도록 놔두면서도 제어해야 한다. 지미 헨드릭스, 레온 헨드릭스, 지미 헨드릭스: 형제의 이야기> 중

- 우리를 파괴하기 위해 굳이 인공지능이 필요하지 않다. 인간이 가진 오만함만으로도 충분하다. (영화 <엑스 마키나>)
- 모든 건 서로 얽혀 있으니 거미줄은 신성하다. (마르쿠스 아우렐리우스)
- 양자컴퓨터는 고전적인 컴퓨터보다 특정 종류의 전산 처리를 훨씬 더 효율적으로 수행하기 위해 양자역학을 이용하는 새로운 컴퓨터 아키텍처다. 고전적인 컴퓨터는 '비트bit'를 기반으로 한다. 비트는 스위치와 같 아서 (꺼지면) 0혹은 켜지면) 1이 된다. 모든 응용프로그램과 웹사이트 혹은 사진은 수백만 개의 비트로 구성된다. 이진법인 비트 덕분에 고전 적인 컴퓨터를 더 쉽게 만들고 제어하게 되었지만, 0과 1의 조합만으로 계산해야 하기에 정말 어려운 컴퓨터과학 문제를 해결할 잠재력은 제한 되었다.
양자컴퓨팅은 비트 대신 양자비트, 즉 전자나 광자와 같은 아원자 입 자인 큐비트를 사용한다. 큐비트는 원자 입자와 아원자 입자와 마찬가 지로 양자역학의 원리를 따름으로써 어마어마한 컴퓨팅 능력을 부여한 다. 그 첫 번째 특성은 중첩superposition으로 이는 각 큐비트가 언제든 복 수의 상태로 존재할 수 있는 능력이다. 0과 1의 값을 모두 보유한 중첩 상태에 있는 복수의 큐비트들은 방대한 수의 출력값을 동시에 처리할 수 있으며 다양한 상황에 대한 분석이 가능하다. 양자컴퓨팅을 기반으로 구축된 인공지능은 고도의 효율성을 바탕으로 작동하기 때문에 복잡성은 기하급수적으로 줄어든다.
두 번째 특성은 얽힘entanglement으로, 두 개의 큐비트가 서로 연결되어 멀리 떨어져 있을 때조차 하나의 큐비트에서 수행되는 행동이 다른 하 나에 영향을 주는 것을 말한다. 얽힘 덕분에 양자 기계에 하나의 큐비트 가 더해질 때마다 컴퓨팅 능력은 기하급수적으로 증가한다. 1억 달러의 기존 슈퍼컴퓨터가 컴퓨팅 능력을 2배로 늘리려면 1억 달러를 더 써야 한다. 하지만 양자컴퓨팅의 능력을 2배로 늘리려면 하나의 큐비트만 더 하면 된다.
이렇게 놀라운 특성에는 대가가 따른다. 양자컴퓨팅은 컴퓨터와 그 주변 환경의 작은 이상에도 매우 민감하게 반응한다. 작은 진동, 전기적 간섭, 온도 변화 혹은 자기장에도 중첩이 붕괴하거나 심지어 사라질 수 있다. 실용적이면서 확장 가능한 양자컴퓨팅을 위해서는 이전에 없던 진공실, 초전도체, 초냉각 냉장고를 개발해 환경에 의해 발생하는 양자의 '결어긋남decoherence'을 최소화해야 한다.
- 이러한 도전적 문제들로 인해 과학자들이 양자컴퓨팅에서 큐비트의 수를 늘리는 데 오랜 시간이 걸렸다. 1998년에 2개이던 것이 2020년 에 65개로 늘었는데 이는 실용적인 작업을 수행하기에는 아직 너무 적 은 수다. 그렇긴 해도 수십 개의 큐비트만으로 일부 컴퓨팅 작업은 기존 의 슈퍼컴퓨터보다 100만 배 더 빠르게 처리할 수 있다. 구글은 2019년 에 기존의 슈퍼컴퓨터라면 수년이 걸렸을 문제를 54큐비트의 양자컴퓨 터가 수십 분 만에 풀 수 있음을 보여주며 처음으로 '양자 우월성quantum supremacy'을 증명했다.
IBM의 로드맵에 따르면, 향후 3년간 해마다 큐비트의 수가 2배 이 상 늘어나 2023년에 1,000 큐비트 프로세서가 등장할 것으로 기대된다. 4,000개의 논리적 큐비트logical qubit는 비트코인 암호를 깨는 것을 포함 해 일부 분야에 적용되기에 충분하다. 이를 근거로 일부 낙관론자들은 양자컴퓨터가 5년에서 10년 후에 도래할 것으로 예측하기도 한다.
하지만 이러한 낙관론자들은 몇몇 도전을 간과했을지도 모른다. IBM 연구자들은 큐비트가 늘어날수록 결어긋남에 의한 오류를 통제하기가 더 어렵다는 것을 인정한다. 이 문제를 해결하려면 신기술과 정밀공학 을 이용해 복잡하면서도 섬세한 장비를 구축해야만 한다. 또 결어긋남 오류를 해결하려면 안정성, 오류 수정 및 내결함성 fault tolerance을 제공하 기 위해 각각의 논리적 큐비트를 다수의 물리적 큐비트physical qubit로 나 타내야 한다. 4,000개의 논리적 큐비트를 가진 양자컴퓨터가 작동하려 면 한 대당 100만 개가 넘는 물리적 큐비트가 필요할 것으로 추정된다. 게다가 유용한 양자컴퓨터가 성공적으로 시연된다고 해도 대량 생산은 또 다른 문제다. 마지막으로 양자컴퓨터는 고전적인 슈퍼컴퓨터와 완전 히 다르게 프로그래밍되므로 새로운 알고리즘이 발명되어야 하고 새로 운 소프트웨어 도구도 만들어져야 한다.
- 다음과 같은 궁금증이 생길 수 있다. 왜 사람들은 그들의 지갑 주소와 공개키를 세상에 공개하는가? 이것은 초기 설계가 가진 결함이었다. 비 트코인 전문가들은 공개가 불필요하고 위험하다는 사실을 뒤늦게 깨달 았다. 2010년에 사실상 모든 새로운 거래가 주소를 숨김으로써 훨씬 더 안전한 새로운 포맷으로 전환되었다(물론 전혀 공격을 당하지 않는다고 는 할 수 없다). 이 새로운 기준이 바로 P2PKH이다. 하지만 과거의 취약 한 포맷(P2PK)에 아직도 200만 개의 비트코인이 저장되어 있다. 그리 고 2021년 1월, 코인당 가격이 6만 달러에 달해 전체 비트코인의 가치는 1,200억 달러가 되었다. 이것이 바로 <양자 대학살>에서 도둑들이 노린 것이다. 만일 구식 P2PK 계정을 갖고 있다면 당장 이 책을 내려놓고 가서 지갑을 안전하게 바꾸길 바란다!
- 마크 루소는 왜 은행을 털지 않았을까? 우선 은행에는 공개키가 담긴 공개 장부가 없고 따라서 개인키를 계산할 수 없기 때문이다. 둘째, 은 행에는 거액의 이체와 같은 수상한 거래를 감시하는 시스템이 있기 때 문이다. 셋째, 계정 간 돈의 이동은 추적이 가능하며 불법일 경우 기소당 하기 때문이다. 마지막으로, 은행 거래는 암호 해독에 더 많은 애를 써야 하는 다른 암호화 알고리즘에 의해 보호되기 때문이다.
암호화를 '업그레이드하려면 어떻게 해야 할까? 양자 저항 알고리즘 이 존재한다. 실제로 피터 쇼어는 난공불락의 암호화를 양자컴퓨터에 구축할 수 있음을 보여주었다. 양자역학에 기초한 대칭적인 암호화 알 고리즘은 침입자들이 강력한 양자컴퓨터를 갖고 있다 해도 뚫을 수 없 다. 이 암호에 침투할 수 있는 유일한 방법은 양자역학의 원리가 잘못된 것으로 판명될 경우뿐이다.
하지만 양자 저항 알고리즘을 적용하는 것은 매우 비싸다는 이유로 현재로선 대부분 기업이나 비트코인 거래소에서 고려하지 않고 있다.

- 증기 드릴이 나를 쓰러트리기 전에 내 손에 망치를 쥐고 죽겠소. (미국 민요 ‘존 헨리John Henry' 중)
- 낙관론자들은 신기술에 의한 생산성 향상이 거의 항상 경제적 이익을 창출한다고 주장한다. 더 큰 성장과 번영은 항상 더 많은 일자리를 의미 한다는 것이다. 하지만 인공지능과 자동화는 다른 기술들과 다르다. 인 공지능은 범용 기술로서 화이트칼라와 블루칼라를 통틀어서 거의 모든 산업과 직무 분야에서 변화를 가져올 것이다. 대부분 기술은 일자리를 창출하기도 하고 앗아가기도 한다. 조립 라인의 등장으로 자동차 생산 공장에서 더 낮은 비용으로 수많은 노동자를 대체했던 것을 떠올려보 라. 인공지능이 표명하는 기술적 목표는 인간의 일을 수월하게 해주거 나 대신하는 것이다. 산업혁명이 유럽과 미국을 넘어 전 세계로 퍼져나 가는데 100년 이상이 걸렸던 반면 인공지능은 이미 전 세계에서 채택 되고 있다.
- 다음 세 가지 능력은 인공지능이 뒤처지는 분야로, 2041년까지 인공지능이 통달하기 어려울 것이다.
* 창의력: 인공지능은 무언가를 전략적으로 만들어내거나 개념화할 수 없으며 계획을 세우지도 못한다. 인공지능은 협소한 목표를 위한 최적화는 잘하지만 스스로 목표를 정하거나 창의적으로 생각할 수 없다. 인공지능은 서로 다른 영역들을 넘나들며 생각하거나 상식을 적용할 수도 없다.
* 공감: 인공지능은 공감이나 연민과 같은 감정을 느낄 수도 그런 감정을 바 탕으로 상호작용할 수도 없다. 인공지능은 다른 사람이 이해받고 있다거 나 보살핌을 받는다고 느끼게 할 수 없다. 이와 관련해 인공지능이 아무리 개선된다고 해도 배려와 공감이 요구되는 상황에서 혹은 '휴먼터치 서비 스human-touch service' 분야에서 인간과 로봇이 상호작용하며 편안하게 느낄 수 있는 수준에 도달하기란 매우 어렵다.
* 수작업: 인공지능과 로봇은 인간의 손재주나 정교한 손과 눈의 협업이 요구 되는 복잡한 신체적 노동을 할 수 없다. 인공지능은 알지 못하는 비구조화된 공간, 특히 이전에 관찰한 적이 없는 공간에 대처할 수 없다.
- 인공지능에 의한 일자리 이동의 물결 속 에 결국 비숙련 신규직원들이 주로 하는 모든 반복적인 일이 사실상 사 라질 것이다. 하지만 이런 초보적인 일을 해보지 못한다면 그들은 어떻 게 학습하고 성장하고 발전해 상급직의 업무를 맡을 수 있을까? 자동화 가 점점 더 확대되고 있지만 우리는 여전히 사람들이 모든 직업에 종사 하고, 업무를 직접 해보면서 배우고, 능력에 따라 승진할 수 있는 방법 이 있는지 확인해야 한다. 이를 구현하기 위해 가상현실 기술이 활용되 면서 '가짜 일', '실무 훈련', '진짜 일'의 구분이 분명 모호해질 것이다.

- 두려워 마세요. 이 섬은 온갖 소리와 달콤한 공기에 싸여 있으니 오직 기쁨만 줄 뿐 해롭지 않습니다. 꿈속에서는 구름이 걷혀서 금방이라도 온갖 보물이 내게 쏟아질 듯합니다. 그래서 잠에서 깨어나면 다시 꿈나라로 돌아가고 싶어서 웁니다. (윌리엄 셰익스피어, <템페스트> 중)
- 아직도 가장 소중한 데이터를 제삼자에게 맡기는 것이 터무니없는 생 각이라고 여긴다면, 우리 대부분이 은행 금고와 같이 확실한 제삼자에 게 가장 소중한 물리적 소지품을 맡겨 보관하는 관행에 대해 생각해보 라. 게다가 주식은 증권회사에 맡기고, 비트코인은 인터넷에 맡긴다. 데 이터에 대해서만 그렇게 할 수 없는 이유는 무엇인가? 모든 데이터를 우 리와 같은 이해관계를 가진 신뢰할 만한 주체에게 맡길 수 있다면 우리 는 가장 강력한 인공지능의 도움을 받아 지속 가능한 행복을 찾을 수 있 으며, 더 이상 수많은 애플리케이션의 데이터 사용에 동의할지 말지를 생각할 필요도, 데이터 도난이나 오용에 대해 걱정할 필요도 없을 것이 다. 이 신뢰할 만한 주체가 자애로운 군주이든 오픈소스 코뮌이든 아니 면 분산형 블록체인 시스템이든, 신기술의 발전이 계속해서 우리의 데 이터를 더 안전하게 지켜줄 것이라 기대하면서 동시에 이 강력한 인공 지능이 주는 전례 없는 혜택을 누릴 수 있을 것이다.

- 꿈을 잃은 자는 길을 잃은 것이다. (호주 원주민 속담)












'IT' 카테고리의 다른 글

인공지능 파운데이션  (4) 2023.05.13
프로덕트 매니저는 무슨 일을 하고 있을까  (1) 2023.04.08
웹 3.0 사용설명서  (2) 2023.03.17
최소한의 IT언어  (2) 2023.02.24
비전공자도 이해할 수 있는 AI지식  (3) 2022.12.29
Posted by dalai
,