- 챗GPT 활용법 * 명확한 지침을 작성한다 * 참조 텍스트를 제공하여 신뢰할 만한 응답을 얻는다 * 복잡한 작업을 더 간단한 하위 작업으로 분할한다 * 챗GPT가 생각할 시간을 준다 * 챗GPT 스토어 앱을 사용한다
- 주요 앱 * Stock GPT : 재무와 투자 관심 사용자에게 주식시장에 대한 분석과 통찰력 제공 * Marketer GPT Pro : 마케팅의 광범위한 전략 요구사항 해결에 특화 * Cnava : 디자이너의 다양한 활동을 도와주는 앱 * Ask yourPDF : 최고의 PDF자료 분석 보조자이자 연구 가이드 * CEO GPT : 젊은 CEO를 위한 가상 멘토 역할과 통찰력 제공
- Data analyst앱은 무엇인가 사용자가 챗GPT에 직접 데이터를 업로드하여 코드를 작성하고 테스트할 수 있는 기능. 프리미엄 계정에서만 사용가능. 이 기능은 AI도구의 도움으로 데이터를 탐색하고, 코드를 생성하고, 경험적 문제를 해결하려는 사용자에게 최적의 솔루션. 테스크톱에 데이터 파일을 다운로드한 다음 챗GPT에 업로드하는 대신 이제 구글 드라이브나 마이크로소프트 원드라이브에서 직접 다양한 파일 형식을 추가할 수 있음. 이를 통해 챗GPT는 구글 스프레드시트, 문서, 슬라이드, 엑셀, 워드 및 파워포인트 파일을 더 빠르게 작업할 수 있게 됨. 칼라일 그룹의 데이비드 본 부사장은 "챗GPT의 데이터 애널리스트는 사용하기에는 너무 크고 복잡해진 고객 데이터를 분석하기 위한 훌륭한 도구입니다. 이것은 대규모 데이터세트를 선별하는 데 도움이 되므로 스스로 더 많은 데이터 탐색을 수행하고 귀중한 통찰력을 얻기 까지 걸리는 시간을 획기적으로 줄일 수 있습니다."라며 강추
- 순차적 되돌이형 일처리를 협동적 실시간 일처리로 바꿔라 지금까지 우리 일처리 방식은 순차적 업무지시와 되돌이형 검토 및 보고방식으로 진행됨. 순차적 일처리 방식에는 최고경영자가 지시를 내리면, 이 지시가 중간관리자를 거쳐 실무자에게 전달됨. 이는 명령의 흐름이 위에서 아래로 내려가는 구조. 되돌이형 일처리 방식에서는 실무자가 작업을 완료하고 그 결과를 중간관리자에게 보고. 중간관리자는 이를 검토하여 최고경영자에게 다시 보고하고, 최고경영자의 피드백을 받아 다시 실무자에게 전달하여 수정작업을 하게 됨. 이로 인해 많은 시간이 걸리고, 생산성을 저하될 수밖에 없음. 순차적 되돌이형 일처리 방식이 널리 사용된 이유는 조직과 기술의 몇 가지 중요한 제약 때문이었다. 정보의 흐름과 의사결정 구조가 비교적 엄격하고 분명한 이 방식은 디지털 기술이 발달하기 전의 조직에서 필수적이었음. 챗 GPT와 같은 생성형 AI를 활용하면, 기존 일처리 과정을 효율적으로 변화시킬 수 있다. 예를 들어 보고서 작성이나 데이터분석 같은 반복적이고 정형화된 작업을 AI가 자동으로 수행하여 실무자의 부담을 줄일 수 있다. 또한 AI는 마케팅 자료의 생성과 같은 창의적 작업을 지원할 수도 있어, 팀이 더 전략적인 업무에 집중할 수 있게 해줌. 챗GPT와 같은 인공지능 기술을 활용하여 업무처리 방식을 변화시키는 것은 상사, 중간관리자, 그리고 실무자가 함께 협업하면서도 더 효율적으로 업무를 수행할 수 있는 새로운 가능성을 열어둠. 이를 통해 기존의 순차적 되돌이형 방식을 벗어나, 조직의 의사소통 및 결정과정을 더욱 신속하고 효율적으로 하는 협동적 실시간 일처리 방식으로 바꿀 수 있음.
- CIA삼각축 (1) 기밀성 confidentialty : 권한이 없는 제3자가 정보를 보거나 탈취하지 못하도록 하는 것. 암호화, 접근통제, 인증 등의 보안통제가 이에 해당 (2) 무결성 integrity : 정보가 악의적으로 혹은 실수로 변경되지 못하도록 하는 것. 데이터 변조나 위조는 정보의 신뢰성이 달려 있는 문제이며 데이터 보호와 접근권한과 같은 통제를 적용한다. (3) 가용성 availability : 정보나 서비스를 원하는 시간에 접근할 수 있는 가를 말한다. 디도스 공격이나 랜섬웨어는 대표적 가용성 위협이다. 백업강화로 방어하지만, 파일을 잠그는 정도에 그치지 않고 아예 훔친다음 공개하겠다고 협박
- 비즈니스 영향도 분석(BIA business impact analysis) : CIA에 대해 어떤 영향이 있을지 계량화 하고, 그렇게 나온 수치와 위협 시나리오를 분석하는 것.
- 보안의 퍼스페티브 (1) 모든 IT자산을 정확히 파악하는 것은 기초다. 모르는 것을 지킬 수는 없다. (2) 자산에 대한 CIA평가를 통해 어떤 관점(기밀성, 무결성, 가용성)에 무게를 두어야 할지 결정 (3) 비즈니스 영향도는 정략적인 보안등급과 더불어 비즈니스 측면에서 위협 시나리오를 예측한 정성적 평가로 구성됨. 여기에서 조직이 갖고 있는 총체적 리스크가 나온다 (4) 리스크를 줄이기 위해 기술/제품, 프로세스, 사람의 3대 요소를 동원해서 보안통제를 구성함 (5) 위협모델에 대입해서 보안통제의 효과성을 판단. 최종적으로 나온 잔여 리스크의 수준에 따라 추가적인 보안통제를 구축하거나 모니터링을 강화함.
- 사이버 보안은 아무것도 신뢰하지 않는다가 원칙. 사람이 제대로 했더라도 은밀한 악성코드에 의해 눈뜨고 당하는 세상인데 하물며 사람, 기계, 소프트웨어, 협력업체 간에 이루어지는 복잡한 과정을 어떻게 신뢰하겠는가? 그래서 확인과 모니터링에 기반한 이중삼중 방어체계가 사이버 보안의 기본골격이다. - 하드웨어, 소프트웨어, 운영체제, 애플리케이션으로 이루어진 컴퓨터 구조는 한 번도 바뀐 적이 없다. 메인프레임, 중대형컴퓨터, PC부터 스마트폰에 이르기까지 동일함. 발전소나 항공시스템에서 사용하는 컴퓨터도 구조가 다르지 않다.단지 기종이 다르고 운영체제가 다르고 프로그래밍 언어가 다를 뿐이다. 개념적으로 거의 동일하므로 공격자가 안 다뤄본 시스템이라 어려워할 것이라고 단정하면 안된다.
- 2008년, 그리고 2012년 이후 미디어 기업들은 데이터 과학 팀을 조직하고 여론조사에 큰돈을 투자하고 좋은 데이터를 확보하기 위해 많은 비용을 지출했다. 하지만 그렇게 많은 시간과 돈, 노력을 들이고 교육에도 투자했지만 무 슨 일이 일어났던 것일까? 우리의 가설과 견해 왜 그런 문제가 발생했을까? 우리 저자들은 문제 자체의 어려움, 비판적 사 고 결여, 잘못된 의사소통이라는 세 가지 이유를 꼽아본다. 첫째, 앞서도 말했듯이 데이터는 복잡하다. 데이터에 관한 문제는 대부분 근본적으로 어렵다. 설사 가장 명석한 분석가가 방대한 데이터를 확보해서 적절한 도구와 분석 기법으로 작업하더라도 실수를 피하기 어렵다. 예측이란 항시 틀릴 가능성이 존재하는 것이고 실제로도 틀린다. 데이터와 통계학에 대한 단순한 비방이 아니라, 이것이 바로 현실이다. 둘째, 일부 분석가와 관련자들은 데이터 문제에 대한 비판적 사고를 멈 춰 버렸다. 데이터 과학 비즈니스는 자만에 빠져 확신에 찬 단순한 청사진 을 그렸고 일부는 그런 주장을 맹신했다. 인간의 본성상, 무슨 일이 일어 날지 모른다는 사실을 인정하고 싶지 않을 수도 있다. 하지만 데이터를 제 대로 활용하고 사고하려면 언제든 잘못된 결정을 내릴 수 있다는 가능성을 인정해야 한다. 즉 위험과 불확실성에 대해 서로 소통하고 이해해야 한다. 그런데 어떤 이유에선지 이런 인식이 어느새 사라져 버렸다. 데이터와 데 이터 분석 방법에 대한 수많은 연구가 사람들의 비판적 사고를 촉진할 것 이라 기대했지만 오히려 일부 사람들에게는 비판적 사고를 멈춰 버리게 만 드는 결과를 초래했다. 데이터와 관련된 문제가 끊임없이 발생하는 세 번째 이유로는, 데이터 과학자와 의사결정권자 사이의 소통이 원활하지 않기 때문인 듯하다. 의도 치 않더라도 분석 결과는 종종 커뮤니케이션 과정에서 손실된다. 데이터 과학자들이 굳이 의사결정권자에게 데이터 해석 능력을 가르쳐 주지는 않 기 때문에 의사결정권자는 통계적 사고를 갖춘 언어로 자신의 의견을 말하 지 못한다. 솔직히 데이터 분석가들이 항상 설명을 잘하는 것도 아니다. 분 명히 양자 사이의 의사소통에는 간극이 존재한다. - 초기 논의에서는 핵심적인 비즈니스 문제에만 집중해야 하며, 최근 기술 동향 등 불필요한 사항은 제외하도록 주의해야 한다. 기술 동향에 대한 이 야기를 하다 보면 회의의 초점이 비즈니스와 동떨어지기 쉽다. 다음과 같 은 두 가지 경고 신호에 주의해야 한다. * 방법론 중심 논의: 이 관점을 견지하는 기업들은 새로운 분석 기법이나 기술을 도입하는 것만으로 자사를 차별화할 수 있다고 단순하게 생 각한다. "AI를 도입하지 않은 회사는 이미 시대에 뒤처진 것이다..." 같은 과장된 홍보 문구를 아마도 들어본 적 있을 것이다. 혹은 그럴 듯한 최신 유행어를 찾으려는 경우도 있다(예를 들면 '감성 분석' 같은 단어를 사용하는 등). * 결과물 중심 논의: 어떤 프로젝트는 결과물이 무엇이 될 것인가에 과도 하게 집중한 탓에 궤도를 이탈하기도 한다. 예를 들어 인터랙티브한 대시보드를 만드는 프로젝트가 있다고 가정해 보자. 막상 이렇게 프 로젝트를 시작하면 그 프로젝트의 결과물은 그저 새로운 대시보드나 비즈니스 인텔리전스 시스템 설치에 관한 것이 돼버리고 만다. 따라 서 프로젝트 팀은 한발 물러서서 자신들이 만들고자 하는 결과물이 조직에 어떤 가치를 가져다 줄지부터 파악해야 한다.
- 중요한 문제에 집중하자 지금까지 우리는 프로젝트 실패가 근본적인 문제를 올바르게 정의하지 않 았기 때문이라고 결론 내렸다. 대부분의 경우, 이런 실패를 주로 시간이나 자금, 노력의 손실 관점에서 생각한 것이다. 그러나 데이터의 온갖 영역에 는 훨씬 더 광범위한 이슈가 놓여 있으며 여러분이 이 문제들을 모두 예상 하기란 쉽지 않다. 현재 업계의 관심은 수요 충족을 위해 최대한 많은 데이터 인력을 양성하 는 데 집중돼 있다. 그 결과 대학교, 온라인 교육 프로그램 등을 통해 비판적 사고를 갖춘 사람들이 급속도로 배출되고 있다. 데이터 업무가 온전히 진실을 밝히는 일뿐이라면 데이터 리드는 그저 그 일만 하면 될 테다. 이때 데이터 리드들이 그다지 내키지 않는 프로젝트에 착수해야 하는 상 황은 무엇을 의미할까? 자신의 기술을 경영진에게 과시할 수는 있으나 실 제로 의미 있는 문제를 해결하기는 어려운, 미처 제대로 정의되지 못한 이 슈에 시간을 쏟아야 하는 상황은 또 무엇을 의미할까? 이 이야기는 수많은 데이터 작업자들이 자신의 업무에 만족하지 못한다 는 사실을 의미한다. 모호한 성과를 목표로, 기술에 과도하게 초점이 맞춰 진 문제를 해결하도록 강제하다 보면 사람들은 이내 좌절과 환멸에 빠질 것이다. 캐글(Kaggle.com)은 전 세계의 데이터 과학자들이 데이터 과학에 대한 경연 대회를 열고 새로운 분석기법을 배우는 곳으로, 캐글 사용자를 대상으로 설문조사를 통해 데이터 과학자들이 각자 업무에서 직면하는 어려움이 무엇인지를 물었다. 이 중 몇 가지는 다음과 같이 잘 정의되지 않은 문제나 부적절한 계획과 직접적으로 관련돼 있다. * 해법을 구하기 위한 명확한 질문의 부재 (30.4%의 응답자가 이를 경험함) * 의사결정권자가 결과를 활용하지 않음 (24.3%) * 각 분야 전문가가 제공하는 정보 부재 (19.6%) * 프로젝트 효과에 대한 예측 (15.8%) * 프로젝트에서 얻은 인사이트를 의사결정에 통합하기 (13.6%) 이런 상황이 이어지다 보면 결과는 뻔하다. 자신의 역할에 만족하지 않는 사람들은 떠날 것이다.
- 우리에게 데이터가 있다면 한번 살펴봅시다. 우리에게 있는 것이 고작 의견뿐이라면 그냥 제 의견으로 갑시다. (제임스 박스데일(James Barksdale)/ 전(前) 넷스케이프 CEO)
- 통계적 사고란 부분적으로는 탐정처럼 의심을 품으며 대안적 관점에서 문제를 바라보는 새로운 사고 방식이다. (프랭크 해럴(Frank Harrell)/ 통계학자이자 교수)
- 어떤 결과를 수학적으로 전개할 때 확률과 통계 두 단어를 함께 쓰지 않는 한, 이 두 단어를 맞바꿔 쓰기도 한다. 그러나 두 용어의 차이를 명확히 이해하기 위해 조금 더 깊이 살펴보자. 구슬이 들어 있는 큰 가방을 생각해 보자. 우리는 그 안에 담긴 구슬의 색 깔도 모르고 크기나 형태 또한 알지 못한다. 가방 안에 구슬이 몇 개 들어 있는지도 모르는 채 가방에 손을 넣어 한 움큼 구슬을 쥐었다. 여기서 잠시 생각해 보자. 아직 들여다보지 못한 가방 속의 구슬과 아직 펼치지 않은 주먹 안의 구슬이 있다. 가방 속 또는 주먹 안에 무엇이 있는 지에 대한 정보는 전혀 없다. 이 상황을 통해 두 용어가 어떻게 다른지 설명할 수 있다. 확률이란 가방 속에 무엇이 있는지 정확하게 파악하고서 그 정보를 이용해 손에 무엇을 움 켜쥐었는지를 예상하는 과정이다. 반면 통계란 손에 쥔 것이 무엇인지 먼 저 확인한 다음, 그렇다면 가방 속에 무엇이 있을지를 추론하는 과정이다. 즉 확률은 드릴다운drill down 방식이고 통계는 드릴업 drill up 방식이다."
- 데이터가 있고 정답을 찾으려는 간절한 욕망이 결합된다고 해서 합리적인 해답을 찾는다는 보장은 없다. (존 터키(John Tukey)/통계학자)
-대부분 비즈니스에서는 관측 데이터가 이용된다. 관측 데이터로 인과관계를 분석해서는 안 된다. 데이터 분석 결과와 의미는 잘 설계된 실 험에서 얻은 데이터가 아니라는 전제를 깔고 제시돼야 한다. 관측 데이터 에 기반한 인과관계는 항상 회의적으로 봐야 한다. 데이터 수집 방법을 확인함으로써 인과관계를 추론할 수 없는 조건에서 인과관계를 주장하고 있지 않은지 점검할 수 있다. 잘못된 인과관계 추론은 앞으로 이 책 전반에 걸쳐 여러 번 언급할 정도로 중요한 문제다. 실험 데이터는 언제든지 사용할 수 있을 것처럼 쉬워 보이지만 매우 복 잡한 과정을 거쳐야 하고 비용 대비 효율의 문제, 심지어 윤리적인 문제도 결부되어 있어 항상 가능하지는 않다. 예를 들어, 전자 담배가 청소년에게 미치는 영향을 연구하기 위해 과학을 명분삼아 청소년을 무작위로 실험군 과 대조군으로 배정해서 치료군에게 전자 담배를 피도록 강요할 수는 없 다. 비윤리적인 행위이기 때문이다. 데이터 리드는 확보된 데이터를 사업적인 판단을 내리는 데 효과적으로 활용할 수 있어야 한다. 일부 기업이나 부서에는 엄격한 실험을 통해 관측 데이터를 추가적으로 검증할 만한 수단이 있지만 실험을 통해 해결할 수 없는 비즈니스 문제도 있다. - 데이터가 많을수록 표본 데이터에 내재된 근본적인 문제를 극복할 수 있다 고 생각하기 쉽다. 표본이 클수록 더 신뢰할 수 있다는 생각은 통계적 사고 에 대한 오해다. 데이터를 올바르게 수집한다면 표본이 클수록 도움은 되 지만, 데이터에 편향이 존재하는 한, 데이터를 더 추가한다고 해서 문제가 해결되지는 않는다. 빅데이터에 대한 짧았던 열광은 데이터의 크기가 과학적 엄밀성을 보장 한다는 생각이었다. 데이터셋이 너무 커서 데이터와 논쟁하기가 어렵다는 생각은 금물이다. 통계에서 표본에 편향이 없다고 보장할 수 있는 절대적인 데이터 크기에 대한 기준은 존재하지 않는다. 통계는 궁극적인 분석 목표와 사용 가능한 데이터 사이에서 적절한 절충점을 선택하는 일이다.
- 데이터 과학자에게 무차별적인 정보 수집과 분석을 하라고 요구하면 틀림없이 엉터리 분석 결과가 나올 것이다. (토마스 레드맨(Thomas C. Redman)/ 데이터 전문가, 《하버드 비즈니스 리뷰> 기고가)
- 데이터 리드는 탐색적 데이터 분석 과정을 수행해야 한다. 이 과정에서 다음과 같은 일이 가능하다. *문제를 해결하기 위한 명확한 과정 도출 *데이터에서 확인된 제한 조건에 따라 비즈니스 문제 재정의 *데이터를 이용해 해결해야 할 새로운 문제 식별 *프로젝트 중단. 해결할 수 없는 문제에 시간과 돈을 낭비하지 않게됐다면 썩 만족스럽지는 않지만 그것만으로도 탐색적 분석은 성공 한 셈이다.
- 대부분의 사람들은 확률을 잘 모른다. 그래서 50 대 50 같은 동전 던지기,아니면 99% 같은 확실한 확률 개념만 받아들인다. (수학자 존 알렌 파울로스(John Allen Paulos))
- 쓸데없이 확률을 곱하지 말자 과거 사건의 확률을 불필요하게 곱하지 말자. 그렇게 하면 어떤 일이든 아주 가능성 이 낮게 보이게 된다. 여러분이 이 책의 현재 글 줄을 읽고 있을 확률을 추정해 보자. 이 책의 쪽수는 368 페이지(1/368)고 한 페이지에는 약 25줄의 글(1/25)이 있다. 또한 수백만 권의 책 중 에서 이 책을 골라서 읽고 있다. 이 모든 확률을 곱하면 아주 작은 숫자를 얻는다. 여 러분과 우리 저자는 서로 운명이었음이 분명하다!
- 이 장에서 배운 지식은 확률이 걸린 결정을 내릴 때 추가적 으로 어떤 정보를 확인해야 할지에 관한 힌트를 준다. 특히 처음에 직관적 으로 생각할 때는 단순해 보였지만 지금은 의심이 가는 확률 문제를 결정 해야 할 때 더 도움이 될 것이다. 또한 사람들이 얼마나 확률을 오해하고 있는지를 알아봤다. 이런 오해는 잘못된 문제 정의나 주어진 정보에 대한 잘못된 가정으로 이어진다. 이런 실 수를 피하기 위해 확률을 다룰 때는 다음과 같은 사항을 명심하자. *사건들이 서로 독립이라 가정할 때는 주의해야 한다. *모든 확률은 조건부 확률임을 인지하자. *의미가 있는 확률인지를 반드시 확인한다.
- 앵커 켄트 브록맨: "그래피티 낙서 같은 경미한 기물 파손 행위는 80%감소한 반면, 심각한 가방 날치기는 충격적이게도 900% 증가했다 는 주장을 어떻게 생각하십니까?" 호머 심슨: "아, 사람들은 모든 주장을 입증하기 위해 늘 통계를 내놓죠. 켄트 씨, 40%의 사람들이 그런 사실을 알고 있어요." <심슨 가족>
- 데이터를 열심히 파고들다 보면, 신의 메시지를 찾을 수 있다. (딜버트(Dilbert))
- 주성분 분석 주성분 분석은 데이터 과학자나 머신러닝 같은 용어가 비즈니스 용어로 정 착되기 훨씬 이전인 1901년에 고안된 차원축소의 한 방법으로 여전히 인 기를 누리고 있는 기술이다(잘못 이해하는 경우가 태반이지만). 이제부터 주 성분 분석에 대한 오해를 바로잡고 이 기술로 무엇이 가능하며 왜 유용한 지 살펴보자. - 앞서 차량 도로주행 시험 데이터를 분석했을 때와는 달리 주성분 분석 알고리즘은 어떤 변수들을 결합해 복합 변수를 만들지 사전에 알지 못하기 때문에 모든 가능성을 고려한다. 몇 가지 영리한 수학적 방법으로 여러 변 수들을 조합해 새로운 차원(변수)을 만들어보고 어떤 방식의 선형 결합이 데이터를 가장 잘 분리시키는지 탐색한다. 이 과정에서 만들어지는 복합 변수 중에서 데이터를 잘 분리하는 변수를 주성분principal component(이하 PC)이 라고 일컫는다. 주성분들은 서로 상관관계를 갖지 않는 새로운 차원이 된 다. 도로주행 시험 데이터로 주성분 분석을 해 보면 앞에서 설명한 '효율’뿐 만 아니라 '성능'이라는 차원도 발견될 것이다. - 실제 현업에서는 운동 선수 데이터 사례처럼 주성분의 특징이 명확하게 구분되지 는 않는다. 현실 데이터는 대체로 난잡하기 때문에 만들어진 주성분의 명확한 의미 를 파악하기 어려우며 각 주성분의 특징에 딱 들어맞는 이름을 붙일 수도 없다. 우리 저자들이 경험한 바에 따르면 사람들은 흥미롭고 눈길을 끄는 주성분 명칭을 붙이는 데 너무 몰입한 나머지, 존재하지 않는 데이터의 특 성을 그려 버린다. 데이터 리드라면 분석가가 제시하는 주성분의 특성과 이름을 섣불리 받아들여서는 안 된다. 이런 식으로 분석가가 이미 이름이 정의된 주성분을 제시하는 경우에는, 해당 주성분을 유도한 수식을 확인해 서 적절하게 정의된 이름인지를 점검해야 한다. - 주성분 분석의 목적은 단지 중요하지 않거나 흥미롭지 않은 변수를 제거 하는 것이 아니다. 하지만 이런 실수를 너무나 자주 접한다. 주성분은 원 데이터의 변수를 이용해 만들기 때문에 아무것도 제거되지 않는다. 운동 선수 사례에서도 원 데이터의 모든 변수들은 그룹을 형성해 4가지 주성분 인 근력, 민첩성, 지구력, 건강상태를 새로 만들었다. 주성분 분석으로 만 들어지는 데이터는 원 데이터와 행과 열의 수가 같다. 즉 같은 크기다. 정 보가 크지 않은 주성분의 제거 여부는 분석가에게 달려 있고 절대적으로 옳은 방법은 없다. 주성분 분석 결과를 보고받으면 주성분의 수를 어떻게 결정했는지 물어봐야 한다. - 마지막으로, 주성분 분석은 분산이 크다면 변수들 사이에 흥미롭고 중 요한 정보가 존재할 것이라는 가정에 의존한다. 어떤 경우에는 괜찮은 가 정이지만 항상 그렇지는 않다. 예를 들어 하나의 변수가 큰 분산을 가질 수 있지만 실질적으로는 중요하지 않을 수 있다. 각 선수의 출신 고향 인구 수 를 데이터의 변수로 추가한다고 가정해 보자. 이 변수의 분산이 크더라도 선수의 체력과는 아무런 관련이 없을 수 있다. 주성분 분석은 큰 분산을 중 요하게 고려하기 때문에 어떤 변수가 실제로는 중요하지 않을 때조차 중요 하다고 여길 수도 있다.
- 비지도학습은 데이터가 스스로 군집을 조직하는 방법이라고 설명했다. 처음 시작할 때도 이런 말을 했 지만 그건 말처럼 쉽지 않다는 주석도 달았다. 데이터에서 군집을 발견하 는 능력은 강력한 힘이지만 큰 힘에는 무거운 책임이 따른다는 교훈도 명 심하기 바란다. 특정한 방식으로 데이터를 분류하는 능력은 알고리즘 선택과 알고리 즘 작동 방식, 데이터의 품질, 그리고 데이터에 내재된 분산 등이 합쳐져 서 만들어내는 결과물이다. 이 말은 선택이 달라지면 다른 그룹이 만들어질 수 있다는 의미다. 솔직하게 말하면 비지도학습 또한 많은 지도가 필요하다. 컴퓨터에게 명령을 내리기만 하면 데이터가 알아서 그런 작업을 수행한다 면 문제가 없다. 하지만 여러분은 많은 결정을 내려야 한다.
- 회귀 분석은 환상적으로 강력한 분석 도구 중 하나다. 상대적으로 사용하기는 쉽지만 제대로 잘 쓰기는 어렵다. 게다가 잘못 쓰면 위험한 방법이기도 하다. (찰스 윌러(Charles Wheelan), 『벌거벗은 통계학 중에서)
- 머신러닝 알고리즘이 바에 들어왔다. 바텐더가 무엇을 마실 건지 묻자 알고리즘이 답했다. “다른 사람들은 뭘 마시나요?" (쳇 하스Chet Hasse(@chethaase) / 구글 그래픽 팀 엔지니어)
- 앙상블 모델 수십 번, 많게는 수천 번 알고리즘을 실행해서 나온 다양한 예측 결과를 합친다는 의미에서 앙상블ensemble이라는 이름이 붙은 앙상블 모델은 정교 한 수준에서 의미 있는 예측이 가능하기 때문에 데이터 과학자들 사이에 서 인기가 높다. 특히 랜덤 포레스트random forest와 그래디언트 부스트 트리gradient boosted tree. 최근 데이터 과학자들이 가장 선호하는 모델로 급부상했다. 두 모델은 캐 글(Kaggle.com)에서 우승한 팀이 가장 많이 사용한 것으로도 알려져 있다. 캐글은 기업이 데이터셋을 제공하고 가장 정확한 모델을 개발한 팀에게 거 액의 상금을 포상하는 일종의 경진대회다.
- AI는 새로운 산업혁명의 시작이라고들 한다. 딥러닝이 새로운 혁명의증기기관이라면 데이터는 이 기계에 전력을 공급하는 원료다. 데이터 없이는 그 어떤 것도 불가능하다. (프랑소와 숄레(François Chollet). AI 연구자 겸 케라스 창시자에게 배우는 딥러닝」 저자)
- 인간의 사고 체계를 설명하기 복잡한 것처럼 신경망도 마찬가지다. 실제 로 신경망의 은닉층은 여기에서 설명한 것처럼 사람이 해석할 수 있을 만 큼의 표현(학업성취도, 경험, 업무지식)을 만들어내 못할 가능성이 높다. 게 다가 층과 뉴런이 많이 추가될수록 신경망은 훨씬 더 복잡해진다. 층과 뉴 런이 많아질수록 이해하기도 어렵기 때문에 이를 일컬어 '블랙박스 모델' 이라고 말하기도 한다. 따라서 신경망을 굳이 인간의 두뇌와 비교해 설명하는 과장된 비유 방식 에 얽매일 필요가 없다. 좀 더 실제적으로 설명하자면, 신경망은 주로 지 도학습(분류 또는 회귀)에 사용되며 입력 데이터의 새로운 표현을 발견해 예 측을 더 잘하도록 만드는 거대한 수식이라고 말할 수 있다. - 딥러닝 응용 사례 딥러닝이란 2개 이상의 은닉층을 포함하는 인공 신경망을 활용하는 알고 리즘 부류를 말한다(인공 신경망을 더 멋지게 브랜딩한 것이다). 신경망을 더 깊게 만든다는 아이디어(그림 12.3의 모델을 더 넓게 확장시키는 것처럼)는 은닉층을 계속 쌓고, 이전 층의 출력 값을 다음 층의 입력값으로 사용한다는 의미다. 각 층에서는 데이터를 새롭게 추상적으로 표현하고 입력 데이터셋 으로부터 미묘한 피처를 점점 더 효과적으로 생성한다. 이 과정은 복잡하며, 늘 쉽지는 않았다. 1989년 얀 르쿤이 이끄는 연구 팀은 컴퓨터가 손으로 쓴 숫자 이미지를 입력받아 자동으로 숫자를 인식하 는 딥러닝 모델을 개발했다. 당시 목표는 우편물에 적힌 우편번호를 자동 으로 인식하는 것이었다. 당시 개발된 신경망 모델은 1,200개 이상의 뉴런과 거의 1만 개의 파라 미터를 포함했다(앞서 290쪽 수식 (2) 모델의 파라미터가 5개뿐(학점, 학년, 전 공, 비교과활동수, b)이라는 사실과 비교해 보자. 얀 르쿤 연구팀은 모델의 학 습을 위해 숫자가 미리 표기되어 있는(레이블) 수천 개의 손글씨 숫자 이 미지 데이터를 활용했다. 모든 작업은 1980년대 당대의 기술로 진행됐다. 딥러닝의 성공을 위해서는 강력한 컴퓨팅 능력(연산력)과 레이블이 지정 된 거대한 데이터셋, 그리고 인내심이 필요했다. 딥러닝 연구가 진행되는 동안 (1) 당시 가장 빠르고 비싼 컴퓨터에서도 딥러닝 모델을 학습하는 데 는 너무 많은 시간이 걸렸고, (2) 레이블이 지정된 데이터셋을 확보하기 어 려웠기 때문에 수년을 기다려도 획기적인 성과가 나오지 못했다. 인내심만 으로는 한계가 있었다. - 그러다가 2010년대에 이르러 빅데이터(인터넷 덕분이다), 개선된 알고리 즘(로지스틱 함수보다 더 나은 활성화 함수들), 그래픽 처리 장치(GPU)가 하나 로 묶이면서 딥러닝 혁명이 시작됐다. GPU는 모델의 학습 시간을 100배 나 단축시켰는데, 1,000개의 파라미터를 학습시키는 데 몇 주에서 몇 달 까지 걸리던 시간이 갑자기 몇 시간, 며칠로 줄었다. 이후 딥러닝의 성공 사례는 눈덩이처럼 불어났다. 특히 텍스트, 이미지, 오디오 같은 비정형 데 이터를 이용해 얼굴을 인식하고 레이블을 자동으로 지정하거나 오디오를 텍스트로 변환하는 일까지 다양한 분야에서 성과가 나타나기 시작했다. - 학적으로 합성곱이란 각기 다른 용도가 있는 여러 돋 보기로 사진을 분석하는 것과 같다. 돋보기로 이미지를 왼쪽에서 오른쪽, 위쪽에서 아래쪽으로 움직이면 선, 모서리, 둥근 모서리, 질감 같은 부분적 인 패턴을 발견할 수 있다(그림 12.7 참조). 합성곱은 이미지의 한 부분에 해 당하는 픽셀 값들을 수학적으로 계산해 이미지의 가장자리(예를 들어 큰 픽셀 값 바로 옆의 값이 0인 경우) 또는 다른 패턴을 찾는 과정이다. 합성곱 처리 후 모델 학습용 데이터 크기를 줄이기 위해 인접한 여러 픽셀의 값을 하나 의 픽셀 값으로 줄이는 풀링pooling이라는 과정을 거친다. 풀링 과정을 통해 인접한 픽셀 집합의 가장 두드러진 피처feature를 찾을 수 있다. 합성곱으로 수평 또는 대각선 가장자리 같은 부분적인 패턴을 찾고 나 면, 은닉층의 뉴런들은 중요한 정보 조각들을 맞추고(수학적인 의미에서), 최종 출력과 관련 없는 정보를 걸러낸다. 신경망이 사진 속에 아이가 있는 지, 두 사진 속 인물의 얼굴이 다른지 구분하는 방법을 학습할 수 있도록 데이터는 은닉층을 거치며 왜곡되고 변형된다. 자율주행차는 정지된 차와 움직이는 차, 보행자와 도로공사 현장 인부, 정지 표지판과 양보 표지판의 차이를 구분하는 학습을 한다. 합성곱 신경망에 입력되는 값의 수를 줄일 뿐만 아니라(수십억 개의 숫 자를 추정하는 일은 가능하면 피해야 하지 않겠나?) 전체 이미지에서 유사한 피 처를 찾아낸다. 정형 데이터에서 피처의 위치가 고정되어 있는 것과 달리, 이 미지 데이터의 피처는 전체 픽셀에서의 위치까지 분석돼야 한다. 이 덕분에 SNS는 게시된 사진 속에서 여러분의 얼굴을 정확히 찾아낼 수 있다.
- 전이학습(작은 규모의 데이터셋으로 학습하는 방법) 레이블이 지정된 이미지 데이터가 수백 장 정도로 작다면 전이 학습(transfer learning)을 적용해 효과를 볼 수 있다. 전이 학습은 일상적인 사물(풍선, 고양이, 개 등)을 구분하게끔 이미 학습된 모델을 이용하는 방법이다. 이미 학습된 딥러닝 모 델은 수천 개의 파라미터가 특정 종류의 이미지에 맞게 최적화돼 있다. 이미지를 처 리하는 신경망에서 앞쪽에 위치한 층은 형태나 선 등의 일반적인 표현을 학습하고 뒤쪽에 위치한 깊은 층에서는 다양한 가장자리와 선을 조합해 예상되는 출력 이미지 를 생성한다는 사실을 기억하자. 전이 학습의 핵심 개념은 마지막 층 몇 개를 제거하고 새로운 학습이 필요한 층으로 대체하는 것이다. 예를 들면 개나 고양이 이미지를 생성하는 선이나 테두리를 학습하 는 층 대신, 암 종양의 윤곽을 형성하는 모양을 학습하는 새로운 층으로 교체하는 것 이다. 다만 전이 학습을 이용하더라도 필요한 이미지(레이블이 지정된) 수를 10분의 1 수준까지 줄일 수는 있어도 수십 장의 이미지로 줄이지는 못한다.
- 첫 번째 원칙은 자신을 속이지 말아야 한다는 것이다. 자기 자신이야말로 가장 속이기 쉬운 상대다. (리처드 P. 파인만(Richard P. Feynman) / 노벨상 수상 물리학자)
- 알고리즘 편향 머신러닝을 통해 더 많은 의사결정이 자동화되면서, 데이터와 컴퓨팅 세계에도 이미 내재된 편견이 존재한다는 사실을 깨닫고 있다. 이를 알고리즘 편향algorithmic bias7이라 부른다. 연구자와 조직들이 최근에야 알고리즘 편향 의 기원과 영향을 자세히 살펴보기 시작했지만, 이는 항상 데이터에 존재 해왔다. 알고리즘 편향은 현상 유지status quo의 산물일 때가 많아서 현 상황 에 근본적인 어려움이 발생하기 전까지는 감지하기가 어려울 수 있다. 그 래도 업무에서 알고리즘 편향을 인식하려는 노력을 기울인다면 훨씬 빨리 발견할 수 있다.
- 이전 장에서 인턴 지원자에 대한 데이터를 공유하고 그들이 면접 대상 에 올랐는지를 예측해 본 사례를 떠올려보자. 만일 데이터셋에 성별이 범 주형 변수로 포함됐는데 과거에 여성보다 남성이 더 많은 면접 대상에 오 른 이력이 있다면, 어느 알고리즘이든 이 관련성을 감지하고 활용해서 남 성에게 더 큰 예측 가중치를 부여하게 된다. 알고리즘에겐 이 모든 것이 0 과 1일 뿐이지만, 데이터 리드는 이런 편향이 아마존닷컴 같은 머신러닝 기술을 선도하는 최고의 기술 회사에서도 발생한다는 점을 알아야 한다." 알고리즘 편향은 아무리 선의를 지니더라도(혹은 중립적이라도) 어디서나 발생할 수 있음은 물론, 이미 발생하고 있음에 유의하라. 어떤 모델의 예측 도 최종적인 진실을 알려주지는 못한다. 모델을 이용한 모든 결과는 가정 의 산물이기 때문이다. 그리고 모든 관측 데이터는 이미 편향이 내재돼 있 음을 가정하고 분석을 진행해야 한다. 이미 실제로 그러하기 때문이다. 예 측을 수행하는 모델은 데이터에 이미 존재하는 편향과 고정관념을 영속화 하고 강화시킨다. 사고방식이나 태도를 바꾸는 것만으로 데이터 업무에서 편향을 찾아낼 수는 없다. 바로 지금 실행에 나서야 한다.'
- p해킹 "커피를 너무 많이 마시면 위암에 걸릴 위험이 높다. 이 결과는 0.05 의 유의수준에서 통계적으로 유의하다."라는 기사가 나왔다고 가정 해 보자. 10 앞서 7장에서 살펴봤듯이 유의수준 0.05의 데이터 신호 는 20번 중 1번의 비율로 거짓 양성 false positive이 나타남을 의미한다. p해킹p-hacking이란 통계적으로 유의한 p값을 발견할 때까지 데이터 의 여러 가지 패턴을 테스트하는 과정을 말한다. 연구자들이 커피 소 비와 뇌암, 방광암, 유방암, 폐암 등 100가지 이상의 암 사이의 상 관관계도 조사했다는 사실을 알게 된다면, 커피와 위암 간의 연관성에 대해 걱정이 좀 덜어질 것이다. 아무런 관련성이 없음에도 우연의 일치로 이 중 5가지가 통계적으로 유의한 p값을 보였을 수도 있 다. 이렇듯 유의한 p값만 보고되기 때문에 p해킹은 일종의 생존 편 향임에 주의하자.
- 사람들은 컴퓨터가 너무 똑똑해져서 세상을 지배할까 봐 걱정하지만, 진짜 문제는 컴퓨터가 너무 멍청한데 이미 세상을 지배해 버렸다는 사실이다. (페드로 도밍고스(Pedro Domingos) / Al 연구자, 마스터 알고리즘』 저자)
- 책이나 사례를 통해서는 뭔가를 할 수 있다는 사실만을 배운다. 제대로 배우려면 직접 해봐야 한다. (프랭크 허버트(Frank Herbert), 미국 작가)
- 생성 AI의 출발점이었던 LLM은 크게 파운데이션(foundation) 모델과 이를 미세 조정해 만든 파인튜닝 (fine-tuning) 모델로 나뉜다. 파운데이션 모델은 워낙 만들기가 어려워, 세계적으로도 그런 기술력을 지닌 업체가 손에 꼽을 정도다. 파운데이션 모델에서 미세조정을 거치면 여러 가지 파인튜닝 모델이 만들어지게 되는데, 그 쓰임새가 다양하다. 대표적인 파운데이션 모델로는 챗GPT 혁명을 주도한 장본인 오픈AI의 GPT 시리 즈, 구글의 제미나이, 메타의 라마, 알리바바의 큐원(通同; Qwen), 네이 버의 하이퍼클로바X 등을 예로 들 수 있다. 반면, 한국 AI 인프라 설루션 기업 모레가 개발해 최고의 성능을 인정받은 MoMo-70B는 알리바바의 큐원을 미세조정해 만든 파인튜닝 모델이고, 업스테이지의 '솔라' 같은 AI 모델도 같은 범주에 속한다.
- GPT-5, 스스로 진화하는 AI 지금 AI 업계는 GPT-5를 학수고대하고 있다. 매개변수가 GPT-4의 100배 이상인 125조개에 달한다는 소문까지 나도는 차세대 파운데이션 모델 GPT-5는 2024년 하반기 발표될 것으로 보인다. 일부 전문가들은 GPT-5가 추론 및 계획의 기능까지 갖춤으로써 인간 수준의 AGI에 도달 할 것이라고 평하기도 한다. 과연 스스로 진화해 인간의 지적 수준을 능 가할 만한 AI 모델인지, 궁금할 따름이다. 파운데이션 모델에 필요한 연산력은 3개월~4개월마다 두 배로 늘어 나고 있다. LLM인 Claude 2(클로드 2)와 LlaMa 2 (라마 2), 이미지 변환 모델인 Stable Diffusion (스테이블 디퓨전) 등 오늘날의 파운데이션 모델은 텍스트, 이미지, 대화, 코딩 등 다양한 작업을 수행한다. 전 세계에 챗GPT 열풍을 일으킨 오픈AI는 미상불 2023년 AI 생태 계의 최상위 포식자였다. 그들이 AI 시대의 개막을 선언했다고 해도 과 언이 아니다. 그리고 오픈AI의 승승장구는 곧 MS의 승리다. 일찌감치 오픈AI에 130억 달러라는 대규모 투자를 단행했고 그 결실을 함께 누 리고 있기 때문이다. MS는 오픈AI의 파운데이션 모델인 GPT 시리즈를 MS의 자체 서비스에 모두 적용하고 있다. 치열하게 전개 중인 AI 전쟁 의 초반엔 일단 MS-오픈AI가 승기를 잡은 모양새다. 다만 2024년 이후 에도 이런 독주가 이어질지는 모를 일이다. AI 비즈니스 모델이 워낙 다 양한 데다 고만고만한 AI 서비스가 우후죽순처럼 쏟아지고 있기 때문이 다. 구글과 손을 맞잡은 딥마인드도 주목의 대상이며, Anthropic(앤쓰로픽) 만 하더라도 언제든지 오픈AI 자리를 위협할 수 있다. - 흥미롭게도 오픈AI의 동맹인 MS는 최근 오픈AI를 슬쩍 견제하는 모습이다. Phi-1.5(파이-1.5)라는 경량화 LLM을 공개하며 자체 AI 영역을 구축하려는 행보를 보인 것이다. 파이-1.5는 매개변수 13억 개에 불과하 지만, GPT에서 일차 가공해 생성한 합성데이터를 훈련했고 텍스트뿐만 아니라 이미지도 인식·해석할 수 있으며 누구나 무료로 쓸 수 있다. 업계 에선 MS가 자체 AI를 활용한 제품을 늘리고 개발자 생태계를 확장할 것 으로 예상한다.
- Gemini 챗GPT 혁명 1년 후 구글의 AI 전략은 'Gemini(제 미나이)' 생태계 확립이 뼈대를 이루는 것 같다. 생성 AI의 주도권을 앗아간 챗GPT로 인해 상처 입은 원조 AI 기업의 자존심 을 되찾겠다는 각오다. 급급히 AI 챗봇 Bard(바드)를 출시하고, 추론과 코 딩 능력을 강화한 PaLM2(팜2) 등 신형 LLM으로 반격했다. 인터넷 사용 률이 높고 구글 검색의 강력한 경쟁자가 있는 시장을 먼저 겨냥해 한국 어와 일어 서비스도 추가했다. 하지만 효과는 미미했다. 여전히 오픈AI 만 못하다는 세간의 평가에 와신상담 반격의 카드로 꺼낸 것이 제미나 이로, 범용 버전은 바드에 이미 적용됐다. 매개변수 크기에 따라 울트라· 프로·나노의 3개 모델로 나뉜다. 가령 최상위 모델 울트라는 매개변수가 1조 5,600억 개로, 현재 업계에서 가장 앞섰다는 오픈AI의 최상위 모델 GPT-4에 필적하는 수준이다. - GPT-4 대항마로 출시한 제미나이는 새로운 범용 LLM인데, 설계 단 계부터 멀티모덜(multimodal; 복합정보처리) 기능을 지향한 첫 모델이다. 모바 일 기기부터 전문 데이터센터까지 모든 환경에서 텍스트, 이미지, 오디 오, 동영상, 코드 등 다양한 '모드'의 정보를 효율적으로 처리한다. 40개 이상의 언어 구사는 물론이고, 무엇보다 추론, 이해, 창작 능력을 갖추었 다는 게 가장 큰 특징이다. 이미지 인식의 수준을 넘어 대상의 속성과 특 징까지 파악·추론하고 수학 문제까지 척척 풀어낸다. 가령 사과와 쿠키 이미지를 보면 "쿠키보다는 사과가 건강에 더 좋다"는 판단까지 한다. 코 딩 성능도 훌륭해서 파이선, 자바, C++ 등의 프로그래밍 언어로 작성된 코드를 이해해 설명·생성한다. 코딩작업 성능을 평가하는 업계 표준 벤 치마크에서 GPT-4를 능가했다. 또 제미나이 최상위 모델 '울트라'는 대 규모 다중 작업 언어이해(MMLU) 능력 평가에서 GPT-4는 물론 인간 전문 가까지 뛰어넘는 정답률 90%를 기록했다. - 구글은 일반 사용자에다 개발자까지 아우르는 제미나이 지원 체계 를 갖춰 챗GPT와 경쟁한다. 바드, 협업 소프트웨어 모음 Workspace(워크 스페이스), 클라우드 내 AI 협업 툴 Duet AI(듀엣 Al) 등을 위시한 모든 AI 서 비스 명칭을 제미나이로 통합해 제미나이 생태계를 확대한다는 계획이 다. 그렇게 된다면 AI 업계 선두를 쟁취할 수도 있을 것이다. 스마트폰에 서 쉽게 사용할 수 있는 제미나이 전용 애플리케이션도 출시했다. 제미 나이는 멀티모덜 AI의 성과와 안전성에 따라 제조와 IT는 물론이고 의 료, 교육 등 전 산업에 파급 효과를 미쳐 '생성 AI 2.0' 시대를 불러올 수 있다.
- 앞서 설명한 오픈AI의 파운데이션 모델 진화와 비슷하게, 메타 역시 '추론(reasoning)과 계획(planning)'을 수행할 수 있는 차세대 AI 모델 'Llama 3 (라마 3)' 출시를 예고 하고 나섰다. 메타의 첫 AI 모델 라마 1은 GPT-3 출시보다 무려 2년 8개 월가량 늦었지만, 메타가 부지런히 따라붙은 결과 라마 3은 GPT-5와 거 의 동시인 2024년 여름 세상에 나올 것으로 알려져 있다. 이렇듯 인간과 유사한 사고를 하도록 진화한 AI 모델은 조만간 현실이 될 전망이다. 지 금까지의 AI는 사전 학습한 데이터를 기반으로 최적의 답을 제시하지만, 앞으로는 미처 학습하지 않은 콘텐트에 관해서도 기존 데이터를 이용 한 추론을 통해 적합한 답을 내놓는다는 뜻이다. 다시 말해서, 이전에는 AI 모델의 개선이 데이터 학습량 및 속도의 증가로 이루어졌던 반면, 앞 으로는 성능이나 특성 자체에서 한 차원 높은 발전이 가능하리라는 얘기다. 기존의 AI 모델은 다분히 직선적이었다. 매개변수 규모로 측정되는 방대한 데이터를 학습하고, 그 범위 안에서만 프롬프트에 대한 답을 생 성했다. 학습하지 않은 사항에 대해선 '정보가 없어서 말할 수 없음'이라 고 답하거나, 아예 가짜 정보를 들이대는 ‘헐루시네이션(hallucination)' 현상 을 보였다. 하지만 추론 능력을 갖춘 AI라면 다르다. 설사 학습하지 못한 사항이라도 학습했던 데이터 속 유사한 내용을 '추론'해, 스스로 합리적 인 답변을 만들어낸다. 이처럼 상황을 판단하는 AI는 사안의 무게라든 지 우선순위도 계획할 수 있다. GPT-5와 라마 3부터는 다층적인 AI로 진화하는 셈이다. 인간의 능력과 다름없다. 요컨대 추론·계획의 능력은 바로 AI가 인간의 창의성, 상상력, 도덕관까지 따라 하게 만드는 결정적 인 변곡점이란 얘기다.
- 구글의 세 번째 칼 AI 스타트업 앤쓰로픽은 구글과 아마존이 AI의 꿈을 실현하기 위 해 손잡은 AI 모델 개발 스타트업이다. 그러니까 챗GPT의 대항마를 만 들어낼 만한 잠재력을 지닌 몇 안 되는 회사 중 하나다. '클로드'라는 이 름의 파운데이션 모델이 대표작이다. 그중 최신 '클로드 3' 모델은 대학 원 수준의 추론과 기초 수학 등 능력 검증에서 GPT-4를 능가한다는 평 가다. - 아마존과 구글이 앤쓰로픽에 거금을 쏟아붓고 자신들의 클라우드 서비스를 통해 앤쓰로픽의 AI 모델을 판매하는 등, 밀월 관계를 만들고 있는 이유는 무엇일까. 가장 큰 이유는 MS-오픈AI의 성공적인 동맹에 맞설 강력한 파트너십이 필요하기 때문이다. 챗GPT 혁명의 주도권을 놓 치고 후발주자가 돼버린 아마존과 구글이 앤쓰로픽을 그 대안으로 선택 한 것이다. 덕분에 앤쓰로픽의 기업가치는 1년도 안 되는 기간에 4.5배로 폭등해 190억 달러 정도로 평가받고 있다. 오픈AI의 초기 몸값 폭등을 연상케 한다.
- 최근 챗GPT는 주춤하고 있다. 2023년 말 기준 글로벌 트래픽이 9.7% 하락했다는 조사 결과도 있다. GPT-4를 적용한 MS의 검색엔진 'Bing(빙)'은 구글의 압도적 (92%)인 점유율에 흠집조차 내지 못하고 있다. 앤쓰로픽의 클로드 3까지 등장하면서, 결국 생성 AI 기술을 둘러싼 MS 와 구글의 대리전이 벌어진 양상이다. AI 업계에서 소위 '1군 기업'으로 분류되는 앤쓰로픽은 향후 12개 이상의 주요 산업에 진출할 계획이라고 한다. 업계는 클로드 3을 가리켜 '구글의 세 번째 칼'이라 평가한다. 클로 드 AI 모델을 활용한 다양한 서비스를 통해 구글의 AI 경쟁력이 한층 강 화될 수 있을까. - 챗봇은 다재다능하다. 그렇다고 그 많은 기능을 고객이 다 필요로 하는 건 아니다. 업무시간을 단축해주는 LLM 기반의 AI 챗봇에 대한 기 업 수요는 빠르게 늘고 있지만, 기업의 정보를 학습시키고 내부 정보에 특화한 앱으로 만들기까지는 많은 시간과 노력이 들어간다. 국내 AI 플 랫폼 스타트업 올거나이즈는 고객사 특성에 맞춘 언어모델, 챗봇, 앱까 지 한 번에 제공하는 올-인-원 설루션 알리 앤서(Alli Answer)'를 개발했다. 이 복잡다단한 과정을 쉽게 진행하도록 돕는 '해결사'다. 고객사는 챗 GPT, 제미나이, 클로바X 등 15종의 LLM을 원하는 대로 활용해 자신에 게 적합한 '알리 앤서'를 만들 수 있다. 올거나이즈는 또 자신들이 직접 개발한 SLLM을 공급하기도 한다. 금융 분야에 특화된 '알리 파이낸스' 같은 경량 AI 모델이 그런 예에 속한다.
- GPT-4V 같은 LMM의 가장 큰 특징은 무엇일까? 텍스트와 이미지 사이의 경계가 없어진 것이다. 이전의 GPT-3 혹은 4에서 텍스트 프롬프 트를 사용하는 것처럼, 사진, 그래프, 도형, 표, 사진 속 언어 등의 이미지 로 명령해도 쉽게 상호 작용한다는 뜻이다. 예를 들어 사람의 여러 가지 표정을 이미지로 보여주면 화남, 놀람, 기쁨 등의 감정을 구분해낸다. 엑 스레이 사진을 보여주면, 이를 해독해 어디에 골절이 생겼는지 또는 무 슨 질병인지를 가려낸다. 또 소고기뭇국 만드는 과정의 사진 몇 장을 뒤 죽박죽 보여주고(텍스트 대신 이미지로 프롬프트하고) 조리법을 순서대로 정렬하 라고 명령하면 정확하게 답을 내놓는다. 여러 가지 '모드'로 인간과 상호 작용하는 AI라는 얘기다. - 물론 예전에도 멀티모덜 개념은 있었다. 다만 완성도 높은 멀티모덜 AI 모델이 나오기까진 상당한 시간이 필요할 것으로 보였다. 이미지나 다른 '모드'는 텍스트보다 인식이 복잡하고, 방대한 데이터로 학습·훈련 해야 하기 때문이다. 그러나 개발자들은 기존의 LLM에다 소프트웨어 를 붙임으로써 이미지 정보를 이해하는 구조를 버리고, 이미지 등 다른 '모드'의 정보를 이해하는 LMM 코어를 새로이 개발했다. 그 결과 인식 률과 속도 등에서 현저한 개선을 이룰 수 있었다. 아예 'LMM'이란 새이 름을 붙여 기존의 LLM 모델과 구분하게 된 것도 그래서다. 생성 AI가 품고 있는 여러 가능성이 검증되면서, 2024년은 AI 서비 스가 더욱 확산하는 해, 특히 LLM 중심이라기보다 멀티모델에 더욱 주 목하는 해가 될 것으로 보인다. 나아가 멀티모덜 AI가 AI 시뮬레이션과 어우러지면 환경·공간 데이터나 3D 객체를 생성할 수 있게 되어, 디지털트윈, VR, AR 같은 복잡한 시스템을 시뮬레이션할 수도 있다. - 텍스트 프롬프트에 맞춰 동영상을 만들어주는 오픈AI의 AI 모델 'Sora(소라)'는 아닌 게 아니라 보는 이의 입을 떡 벌어지게 만든다. 언어에 대한 깊은 이해로 프롬프트를 정확히 해석하는 건 기본이다. 매력적이고 감정이 생생한 캐릭터까지 생성한다. 특정한 동작 혹은 복잡한 장면까지 이해하고 만들어낸다. 아직은 최대 1분 길이의 동영상을 만들지만, 프롬 프트 자체를 인식할 뿐만 아니라 그 프롬프트 내용이 물리적 세계에 어 떻게 존재하는지를 이해한다는 게 놀라울 따름이다. 텍스트가 아닌 이 미지를 프롬프트로 입력해도 동영상을 생성하고, 기존 동영상을 확장하 거나 누락된 프레임을 채우기까지 한다. 물론 구글이나 메타와 Runway AI(런웨이 AI) 같은 스타트업들도 '텍스 트 투 비디오 모델을 개발한 바 있다. 그렇지만 오픈AI의 소라를 두고는 다른 유사 모델보다 비주얼 품질이 좋고 생성물이 사용자의 요구에 훨씬 충실하다는 평이다. 소라는 파라마운트와 워너브러더스 등 할리우드 주 요제작자 경영진에도 이미 소개되었다고 하니, 영화산업이 이를 활용할 가능성도 열려 있다.
- 가우스는 이후 출시된 스마트폰 갤럭시S24 시리즈에 온디바이스 AI형태로 장착되었다. 개인정보 전송 없이도 편리한 자체 검색, 스마트폰 제어, AI 코딩, 문장 요약, 문법 교정, 실시간 번역, 문자로 묘사한 사물의 이미지 생성 등 편리한 기능들이 모두 삼성 가우스로 인해 가능해졌다. 2024년을 시작으로 모든 가전제품에 온디바이스 AI를 적용하겠다고 선 언했던 삼성전자는 이 생성 AI 모델을 통해 모바일·가전 등 사업 경쟁력 을 배가시킬 온디바이스 AI 시대를 열고자 한다. 그야말로 인공지능이 '내 손안으로 들어오는 시대를 앞당길 것이다. - 온디바이스 AI의 활황은 메모리 반도체 시장에도 호재여서, 삼성전자와 퀄컴 등 반도체 업계는 이를 뒷받침하기 위한 칩 개발에 분주하다. 온디바이스 AI가 탑재된 기기는 클라우드와 연결되지 않은 채 스스로 연산·추론을 해야 하므로, 내부에 상당한 데이터를 축적·보관해야 한다. 고로 엄청난 양의 고성능·고용량 낸드플래시와 D램이 거기 들어가지 않 겠는가. 저전력 D램이라든지 저지연(low latency) D램 같은 특별한 메모리 칩의 수요도 그래서 늘어나고, 스마트폰의 두뇌 역할을 하는 핵심 칩인 모바일 AP 개발에도 속도가 붙었다. 나아가 시스템반도체 역시 보기 드 문 팽창을 누릴 수 있다. 반도체 평균 가격이 온디바이스 생성 AI 덕분에 당분간 연 10%씩 오를 거란 예측도 나온다.
- AIPC 생태계 조성 2023년 NPU까지 내장한 AI 전용 PC 칩 Core Ultra(코어 울트라)를 출 시하면서 'AI PC 가속화' 전략을 뽑아 든 인텔은 자사 AI 반도체를 앞세 워 AI PC 생태계 조성에 한창이다. AI PC에 들어가는 칩은 기존의 CPU, - GPU와 함께 AI 추론·연산에 특화된 NPU가 탑재되어 있다는 게 특징이 다. 인터넷 연결 없이 PC가 자체적으로 연산을 처리하려면 NPU는 필수 다. 인텔은 또 300개가 넘는 AI 기능을 AI PC에 추가하고자 한다. 이를 위해 2024년 말경 데이터가 생성·사용되는 기기 자체에서 AI 기능을 활 용하도록, PC 플랫폼 'Lunar Lake(루나 레이크)'와 'Arrow Lake(애로우 레이크)' 를 내놓는다. 2025년까지 인텔 기반 AI PC를 1억 대 이상 공급하도록 소 프트웨어 하드웨어 생태계를 강화하며, 개인 혹은 소규모 개발자도 쉽 게 AI 기술을 구현하도록 지원할 계획이다.
- 퀄컴의 Snapdragon X Elite(스냅드래건 X 엘리트)는 AI에 활용하기 위해 특 별히 설계된 기능을 품고 있다. 130억 개 이상의 매개변수를 사용하는 생성 AI를 실행할 수 있으며, AI 처리 능력에서 경쟁사보다 4.5배 빠르면 서도 전력 소비는 68%나 줄었다고 해서 업계의 주목을 받았다. 퀄컴의 자랑처럼 모바일 컴퓨팅 분야에서 새로운 CPU 리더가 될지, 두고 볼 일 이다. 맥북에 들어가는 PC용 칩들은 애플이 설계해 TSMC의 3나노 공정 으로 제조하는데, AI 머신 러닝 기능을 강화했다는 점이 특별하다. 한편 HP는 인텔의 미티어 레이크 출시에 맞춰 신제품을 내놓았는데, LG전자 와 HP가 이를 활용한 AI 노트북을 준비하고 있다.
- 점차 커지는 오픈소스 진영 LLM 등 근원 AI 기술에서 뒤진 국내 업체들도 개방형 AI 분야에서 는 두각을 나타내고 있다. 카카오는 자체 LLM인 '코GPT 2.0'의 출시를 미루며, 범용의 중형 LLM 대신 산업 영역별로 특화한 경량 LLM 위주로 생성 AI 서비스를 내놓는 안을 고려하고 있다. 또 '허니비'라는 멀티모덜 LLM을 스스로 개발해 개방형 AI 플랫폼 '깃허브'에 선보인 카카오브레 인은 오픈소스로 이 기술을 풀어 생성 AI 생태계를 효율적으로 구축할 예정이다. 허니비를 활용해 좀 더 많은 기업이 각종 서비스를 내놓을 수 있도록 하겠다는 전략이다. AI 모델인 '엑사원 2.0'을 통해 멀티모덜 AI 기술을 공개한 LG AI 연구원도 AWS 플랫폼에서 이 기술을 오픈소스로 풀어 해외 시장을 공략하겠다는 구상이다.
- 국내 AI 스타트업의 오픈소스 약진도 두드러진다. 업스테이지는 자체 개발한 매개변수 107억 개의 AI 모델 '솔라'가 공개 직후 허깅 페이스 AI 성능 순위에서 1위를 차지해 눈길을 끌었다. 모레가 개발한 매개변수 700억 개의 'MoMo-70B' 역시 AI 모델의 성능을 평가하는 허깅 페이스 의 오픈 LLM 리더보드 평가에서 세계 1위를 차지했다. AI 에듀테크 스 타트업 뤼이드와 카카오뱅크의 LLM '카본빌런'까지, 'AI의 빌보드 차트' 로 불리는 허깅 페이스 경쟁에서 국내 업체가 1위 자리를 거머쥔 게 벌써 네 번째다. 오픈소스 진영의 확대는 국내 소규모 스타트업들이 기술력을 뽐낼 기회로 인식되며, 전체적으로 AI 시장 내 개방형 모델의 점유율은 앞으로도 계속 높아질 전망이다.
- 챗GPT 열풍 직후 중국 최초의 AI 챗봇을 만든 것도 바이두였다. 한 때 '짝퉁 구글'이란 오명에 시달렸지만, 자체 개발 LLM을 기반으로 '어 니봇(心一言; Ernie Bot)'이라 불리는 이 챗봇은 출시 13개월 만에 2억 명이 넘는 사용자를 확보했다. 삼성 갤럭시S24 시리즈와 애플의 중국 판매용 아이폰을 위시해 글로벌 스마트폰들도 중국 출시를 위해선 어니봇을 내 장한다. 텐센트의 위챗처럼 어니도 머지않아 중국 14억 인구가 쓰게 될 것이란 예상 때문이다. 바이두의 AI 개발 역사는 10년이 넘는다. 이미 2013년에 딥 러닝 연 구조직을 갖추었고, 이듬해 'AI 4대 천왕'인 앤드루 응 스탠퍼드 교수를 영입하며 실리콘 밸리에 연구소를 세웠다. 지금도 바이두는 실리콘 밸리 와의 격차를 좁히기 위해 AI 인재 확보에 목숨을 건다. 최대 5,000만 위 안(96억원)의 상금이 걸린 '어니 창업 경진대회'를 열어 개발자·창업자 를 끌어모으는 동시에 바이두의 AI 툴 활용도 독려한다. 바이두의 2023 년 R&D 투자는 매출의 18%인 241억9,200만 위안으로, 연간 순이익과 맞먹는다. 최근 10년간 R&D 누적 투자액만 1,700억 위안(약 32조4,000억 원) 에 달하는 글로벌 IT 기업으로 성장했다. 바이두는 AI와 자율주행차의 생성 AI 작동의 기반인 '파운데이션 모델'을 개발한 한국 기업이 2023년 한 곳도 없었다. 가장 많이 개발한 국가는 미국으로 109개를 만 들었다. 2위는 20개를 개발한 중국, 그리고 영국(8), UAE(4) 등이 그 뒤를 이었다. 한국보다 GDP 규모가 작은 나라들도 파운데이션 모델 개발에 성공했다. 알다시피 챗GPT나 미드저니 등은 모두 파운데이션 모델을 기반으로 개발됐다. 국내 업체들도 글로벌 AI 경쟁에 뛰어들었지만, 기 반 기술은 해외에서 그대로 들여온 경우가 대부분이다. 한국에는 쓸만 한 LLM이 없는 데다, 해외 LLM도 한국어를 꽤 잘 처리하기 때문이다. 해외에서 핵심 AI 기술을 도입하는 기업은 많고, 고객을 만족시킬 AI 서 비스를 내놓는 기술은 부족하다. 우리의 IT 생태계가 해외 빅 테크에 종 속될 것이라는 우려의 목소리가 나오는 이유다.
- 저커버그는 AGI 구축이 메타의 장기 비전이라고 했다. 하지만 어느 정도의 '장기'를 의미하는 걸까? AI 권위자들은 대체로 AGI 개발에 30 년 이상이 필요하다고 예측한다. 그런가 하면, 젠슨 황은 5년 후면 AGI 수준에 도달할 '인간의 모든 시험을 통과할 것으로 보고, 일론 머스크는 3년 이내로 예측한다. 손정의 소프트뱅크 회장은 아예 2028년이라고 시점을 특정한다. 오픈AI 역시 AGI 완성에 4년~5년이면 충분하다고 말한다. 자 신들의 초고화질의 동영상 생성 시스템 '소라'를 보면 그럴 가능성이 크 다는 논리다. 또 오픈AI가 AI 기술을 개발하는 과정에서 'QQ스타'라는 모델이 나왔다고 하는데, 일각에선 이 Q스타가 AGI 탐색의 돌파구일지 모른다는 이야기도 있다. 이런저런 전망을 종합해보면, 현재의 혁신 속 도를 고려할 때 지금부터 10년 안에는 AGI로 나아가는 진전이 상당히 이뤄질 것 같다.
- AI가 인간 수준에 도달하려면 훨씬 더 오랜 시간이 필요하다는 반 론도 만만치 않다. 가령 '인공지능 4대 구루'로 꼽히는 Yann LeCun(얀르 쿤)은 AGI 단계에 도달하려면 3년~5년 정도로는 어림없다고 말한 바 있 다. 왜 그럴까? 바둑이나 체스를 두어서 인간을 이긴다든지, 변호사 시 험에 너끈히 합격한다는 점에서는 AI가 제법 그럴싸하지만, 인간 수준 의 인식·판단·예측·상상에는 훨씬 미치지 못한다는 이유에서다. 10대 젊 은이에게 자동차 운전을 가르치는 데 20시간이면 충분하지만, AGI 수준 에 이른 인공지능이라도 20시간의 학습으로 운전할 수 있겠는가. 그래서 그는 AI를 살인 로봇이니 핵무기에 비유하다니, '걱정도 팔자'라고 일갈 했다.
- FAANG도 M7도 옛날얘기, 이젠 A15 시대 'FAANG' 이란 표현이 등장한 건 2013년 경제방송 CNBC를 통해서였다. 페이스북·애플·아마존·넷플릭스·구글을 지칭하는 용어로 당시 세계 경제와 미 국 증시를 주도하는 거인들을 망라했다. 2023년에 쓰이기 시작한 'M7'은 '굉 장한'이라는 뜻의 매그니피슨트(Magnificent) 첫 글자와 구글·애플·메타·아마존· 엔비디아·테슬라·마이크로소프트를 아우르는 7종목의 조합이다. 뱅크 오브 아메리카가 빚어낸 이름이다. 이제 FAANG도 M7도 빛바랜 용어가 될 것 같다. 엔비디아·MS·AMD·TSMC· 브로드컴을 가리키는 'A15'가 주목받고 있으니까. 미국 금융투자사 Light Street Capital (라이트 스트리트 캐피털)이 쓰기 시작했다고 한다. 다소 생소한 새 얼굴도 들어 있는 데다, 대만의 TSMC가 끼어 있어 눈길을 끈다. 아마도 AI 반 도체를 포함해 세계 반도체의 절반 이상을 만들어내는 파운드리 생산력을 인 정받았기 때문이리라. 최근엔 A15 외에 'MM'라는 신조어도 가끔 눈에 띈다. M7 가운데 AI 시대에 들어서도 반짝반짝 빛을 내는 MS·엔비디아·메타 3종목 을 가리키는 이름이다.
- AI 반도체가 구성되는 단계를 아래와 같이 생각해보면 쉬울 것이다. 1) D램(메모리) 2) HBM = D램을 여러 개 쌓아 만든 고성능 메모리 3) AI 가속기 = HBM 여러 개와 GPU를 조합해서 만든 장치 4) AI 컴퓨터 = AI 가속기+ CPU+ 낸드플래시 (대규모 메모리) 결합 5) AI 데이터센터 = AI 컴퓨터를 수천 대 모아서 만든 데이터센터
*엔비디아 발전 - 1차 도약 엔비디아는 챗GPT 혁명과 더불어 최고 성능의 AI 반도체인 H100과 AI 학습 모델에 특화한 GPU인 A100을 출시하면서 본격적인 비상을 시 작한다. 어마어마한 고속 병렬 계산으로 복잡한 3차원 이미지를 자연스 레 구현한 엔비디아의 GPU는 이후 빠르게 생성 AI 반도체 시대의 주인 공이 돼, 불과 몇 달 만에 AI 가속기 시장을 점령하다시피 (90% 이상 점유율 확보) 했다. 이들은 빅 테크의 AI 서비스뿐만 아니라 각국 정부의 데이터 센터 및 수퍼컴퓨터 구축에도 필수품이 되어 지금도 품귀 상태다. LLM 개발에 쓰이며 개당 가격이 6,000만 원까지 치솟은 H100은 성능도 단연 우수하고 함께 제공되는 소프트웨어 서비스까지 압도적이어서, 타사의 경쟁을 허락하지 않는 독보적 제품이다. - 2차 도약 2023년에 공개했던 Grace Hopper(그레이스 호퍼)라는 이름의 인공지능 수퍼칩 'GH200'가 2024년 2분기부터 양산에 들어가면서 엔비디아는 AI 반도체의 왕좌를 한층 더 굳건히 다진다. H100만 해도 현존 최고 사양을 자랑하는데, 그 성능을 다시 혁신적으로 끌어올린 엔비디아의 차세 대 AI 반도체가 바로 GH200이다. 게다가 GH200에 탑재된 CPU와 핵심 메모리인 HBM3E(5세대 HBM)까지도 엔비디아가 직접 설계했다고 하니, 놀라울 따름이다. 머잖아 대형 AI 플랫폼 기업들은 개당 1억 원의 가격 표가 붙은 GH200을 사기 위해 긴 줄을 서야 할 것 같다. 그런 기업 하나 마다 100만 개의 GH200이 필요할 거라는 가정은 그리 비현실적이지 않 다. 그런 기업이 10개만 된다고 해도 엔비디아 매출은 1,000조 원에 이른 다는 계산이 나온다. 그런 기업이 100개라면 매출은 현기증이 날 정도다. 시가총액 2,672조 원으로 세계 3위(2024년 3월 1일 기준)에 등극한 엔비디아 의 성장이 어디까지일지는 예측 불허다. - 3차 도약 2024년 3월 연례 GTC에서 젠슨 황은 엔비디아의 '초격차'를 재확인 할 또 한 번의 AI 반도체 충격을 선사한다. 그가 '컴퓨팅의 새로운 시대 를 열게 될 최강 칩'이라 소개한 차세대 AI 반도체는 'Blackwell(블랙웰)’. 전작 그레이스 호퍼와 견주어도 블랙웰 GPU의 연산 속도는 2.5배 빨라 졌고, 블랙웰 기반 시스템으로 AI가 학습하거나 추론하면 최대 30배의 성능을 낸다. H200은 현재 가장 앞섰다는 GPU인데, 이를 넘어선다면 '괴물'의 탄생이라 불러도 좋겠다. 황의 말마따나, 물리학의 한계를 넘어 칩이 얼마나 확장될 수 있는지를 보여준다. 블랙웰 GPU의 기본 모델인 'B100'에는 트랜지스터가 2,080 억 개나 들어있어, H100의 800억 개를 압도한다. 칩 내부의 두 GPU를 연결해 하 나의 거대한 칩으로 작동하게 만듦으로써 트랜지스터 집적의 한계를 뛰어넘었다. 이걸 뒤집어 말하자면, H100을 활용해 GPT를 훈련하면 GPU가 8,000개 필요하지만, B100을 쓸 땐 2,000개만 있어도 같은 결과를 낸 다는 얘기다. 블랙웰은 2024년 말부터 판매될 것으로 알려져, 업계가 온 통 주목하고 있다. - 물론 엔비디아의 앞에 꽃길만 있는 건 아니다. 무엇보다 AMD, 인텔, 구글, 메타 등이 AI 반도체를 자체 개발하며 무섭게 추격 중이다. 지금 이야 엔비디아가 정하는 가격조차 아무도 이의를 달지 못할 정도로 '엔 비디아 천하지만, 2년~3년 지나면 어떤 경쟁 구도가 될지 예측 불가능이 다. 게다가 AI 모델과 기술 자체가 아직 초기 단계인지라, 앞으로 5년~10 년 후의 AI 생태계가 어떤 하드웨어를 요구할지 누구도 자신 있게 말할 수 없다. AI를 통한 사업 확장을 이룩하려면 상상을 뛰어넘는 자본을 투 입해야 한다는 것도 작지 않은 걸림돌이다. - 이젠 반도체회사 아니고, AI 인프라 업체 이런 상황을 모를 리가 없는 엔비디아는 이미 단순한 반도체 기업 이 아닌 AI 인프라 업체 혹은 '종합 AI 플랫폼 기업'으로 진화하고 있다. GPU 기술 고도화와 AI 산업 수직계열화로써 시너지 효과를 극대화하 고, 너른 생태계를 구축해 종합 AI 설루션 기업으로 나아가자는 전략이 다. 자신들의 GPU 기반으로 소규모 AI를 개발하고 배포하는 'NIM'이란 서비스가 좋은 예다. 막대한 예산, 별도 서버 구축, 외부 클라우드 활용 등이 부담스러운 기업들이 엔비디아의 수퍼컴퓨터를 필요한 만큼 써서 LLM을 훈련하고 생성 AI 앱을 개발하도록 하는 '엔비디아 DGX 클라우 드'도 마찬가지다. - 엔비디아는 AI 수퍼컴퓨터 분야에서도 빼어난 실력자다. 생성 AI를 수백만 명에게 실시간으로 서비스하려면, 가령 챗GPT GPT-3.5의 경우 1만 개의 GPU가 필요했다. (GPU 하나로만 LLM을 학습시킨다면 수백 년이 걸릴 터!) 그러나 GPU 개수를 늘릴수록 학습 시간은 획기적으로 줄어든다. 광통 신으로 서로 연결된 수백~수만 개의 GPU를 장착한 초거대 AI 연산 기 기를 'AI Supercomputer(AI 수퍼컴퓨터)'라고 부른다. 2023년 발표한 AI 수퍼 컴퓨터 DGX GH200'에는 위에서 이미 설명한 GH200을 256개 연결해 탑재했다. 현재 전 세계 탑텐 AI 수퍼컴퓨터 가운데 일곱 개가 엔비디아 의 GPU 및 수퍼컴퓨터 설루션 'CUDA(다)'를 쓰고 있다. AI 수퍼컴퓨 터 역시 엔비디아의 비장의 무기인 셈이다. 이게 전부가 아니다. 엔비디아는 직접 AI 모델도 개발하는 등, 아 예 AI 생태계를 스스로 구축하려는 중이다. 북치고 장구까지 치는 모습이랄까. AI 서비스 개발에 필수인 하드웨어와 소프트웨어 기술을 깡 그리 장악한 기업의 막대한 영향력이 다시금 느껴진다. 더욱 놀라운 건 'BioNeMo (바이오니모)'라는 AI 신약 개발 플랫폼까지 개발했다는 사실이 다. 바이오 및 신약 개발 분야에 맞게 확장된 AI 서비스를 제공해 AI 생 명공학 혁신에 도전할 정도이니, 게임용 GPU를 만들어 팔던 그 엔비디 아가 맞는가, 의아할 정도다. 질병이나 치료 분야에 특화된 신약을 개발 해내는 전혀 다른 모습의 엔비디아, 이것이 바로 AI의 힘이다.
- 인텔, 탈엔비디아의 선봉장 엔비디아 추격의 고삐를 제대로 당긴 것은 '잠든 사자' 인텔이라고 봐야겠다. 2024년 4월 최신 AI 반도체 'Gaudi 3(가우디 3)'를 최초로 공개하 면서 '탈엔비디아 연합전선'을 선언했기 때문이다. 엔비디아의 AI 개발 플랫폼 CUDA (쿠다)와 AI 가속기를 쓰지 않고서도 대등한 수준의 AI를 개발할 수 있는 동맹 체제를 구축하겠다는 전략이다. AI 반도체 시장의 급성장을 부활의 계기로 삼은 인텔의 야심작 가우디 3의 특성은 다음과 같이 요약된다. - 특히 인텔은 또 한 번 세상을 바꿀 가우디 프로젝트의 가장 핵심적인 파트너로 네이버를 지목해 업계를 놀라게 했다. 자사 클라우드 인프라에 가우디 2를 이미 도입한 네이버는 가우디 소프트웨어 생태계 확장을 위해 인텔과 공동 연구소를 만들고 다양한 고객사에 가우디를 기반 으로 한 AI 딥 러닝 서비스를 제공할 계획이다. 길게 보면 30년간 견고하게 구축해온 엔비디아의 AI 반도체 생태계 를 과연 허물어뜨릴 수 있을까. 더구나 오픈AI, 구글, 애플 등도 자체 AI 모델을 위한 맞춤형 반도체 개발에 사활을 걸고 있지 않은가. 또 엔비디 아의 AI 반도체는 이미 2나노 공정으로 만들어지고 있지 않은가. 그렇다, 인텔로서도 우선 시장을 선별적으로 공략했다가 점차 시장을 확대하는 등의 전략을 구사하겠지만, 엔비디아의 아성을 단기간에 따라잡기는 쉽 지 않을 것이다. 그럼에도, 이제 초기에 불과한 AI 반도체 시장은 인텔이 오래 장악했던 CPU 시장과 사뭇 달라서 엔비디아의 독점 지속이 쉽지 않다는 게 업계의 의견이다. AI 반도체 개발·검증, 고객사 확보 등에 필 요한 비용과 시간을 감당할 수만 있다면 엔비디아 독점 시대를 무너뜨 릴 수 있다는 얘기다.
- 끈질긴 경쟁자 AMD 엔비디아의 또 다른 강력한 경쟁사는 AMD다. 고성능 AI 칩 'MI300X'와 가속 처리장치인 'MI300A'로 구성된 MI300 시리즈로 2024 년 들어 주문 규모가 두 달 만에 35억 달러(4조6,095억 원)를 넘어섰다. 특히 MI300X는 H100 라인업보다 메모리 용량이 2.4배, 대역폭이 1.6배 이상 이라고 평가된다. AMD는 CPU와 GPU를 협업하게 만들어 컴퓨팅 성능 을 끌어올리는 소위 '이기종 컴퓨팅'을 개발해왔고, 현재 이 기술은 클라우드와 고객 컴퓨팅 환경 등 많은 분야에서 주류가 되어 있다. 또 예전에 사용되던 단일 칩의 성능 한계 및 높은 비용을 극복하기 위해 '3D chiplet (3차원 칩렛)'이라는 칩 설계 방식을 적극적으로 활용하고 있다. 추가로 2024년 말에 2년 전 출시했던 AI 가속기의 3세대 제품을 출 시할 예정인 AMD는 전반적으로 AI 가속을 지원하는 소프트웨어와 앱 등도 내놓고 있다. GPU 프로그래밍을 위한 자체 소프트웨어 플랫폼인 'ROCm'은 주요 AI 프레임워크와의 탁월한 호환성을 자랑하면서 엔비 디아의 쿠다와 직접 맞붙어서 경쟁하고 있다. 그 결과 AMD는 클라우드 컴퓨팅에서부터 의료영상, 수퍼컴퓨터, 로봇 수술, 심지어 PC와 게임 콘 솔에 이르기까지 전 분야를 지원하고 있다. 삼성전자와도 손잡고 차세대 SoC(System on a Chip; 시스템온칩) 설계자산(IP) 최적화를 도모하고 있다.
- 삼성전자, 엔비디아의 뒤통수를 때릴지도 엔비디아의 AI 칩은 막대한 전기를 필요로 한다. 그들의 GPU가 업 그레이드됨에 따라 최대 소비전력도 400W→ 700W→ 1,000W(B100)로 급 등해, 개당 대형 에어컨에 버금가는 전력을 소모하게 되었다. 데이터센 터 안에 수만 대의 에어컨이 돌아가는 셈이니, 상상해보시라. 오죽했으 면 H100의 연간 소비전력량이 소규모 국가와 맞먹는다느니, '엔비디아 의 AI는 전기료를 먹고 자란다'는 말이 나돌까. 아닌 게 아니라 엔비디아 의 2024년 H100 판매량이 200만 개로 전망되므로, 그 연간 전력 소비는 리투아니아나 과테말라의 연간 소비전력량과 비슷하다. 이 같은 전력 과소비의 주범이 엔비디아 AI 가속기의 '순차적인' 데 이터 저장과 이로 인한 작업 처리 지연, 즉 '병목현상'임이 밝혀지자, 삼성전자도 해결책 찾기에 나섰다. 차세대 메모리 PIM 개발과정에서 메모 리와 시스템반도체 사이 구조를 최적화시키는 경험을 쌓아 데이터 병목 현상을 풀어낼 최적의 설계도를 그리게 되었으며, 마침내 효율적인 AI 가속기를 직접 만들 수 있다는 희망을 찾아낸다. 그리고 거기에 '마하1' 이란 이름을 붙였다. 쉽게 말해서 메모리 내부에 각각 작은 AI 엔진을 장 착하고 데이터의 '병렬 처리'를 극대화해 성능을 높이고 전력 소모를 낮 춘 것이다. 그리고 이를 실증해보기 위해 AI 데이터 처리 경험이 풍부한 소프트웨어 기업 네이버와 손을 잡게 된다. 네이버는 '파운데이션 모델' 을 보유하고 동시에 AI 수퍼컴퓨터와 데이터센터를 운영하는 세계 몇 안 되는 기업이다. 마침 네이버는 사용 중인 엔비디아 GPU 기반 AI 칩이 너무 비싸고 전력 소모량이 커 고민하던 중이었다. 마하-1의 활용 테스 트에서 이미 네이버의 초거대 AI 모델 하이퍼클로바X를 구동하는 데 성 공한 상태다. 이렇게 국내 하드웨어와 소프트웨어 1위가 의기투합해 한 국판 '엔비디아 전선'이 형성된 것이다. - 삼성전자는 세계 최초로 2025년 '꿈의 메모리'로 불리는 3차원(3D) D램을 공개하기 위해 분주하다. 기존의 D램은 기판에 최대 620억 개에 달 하는 셀(데이터 저장공간)을 수평으로 빡빡하게 배치해 전류 간섭 현상을 피 하기 어렵다. 하지만 3D D램은 셀을 수직으로 쌓아 단위 면적당 용량을 3배 키우고 간섭 현상도 줄인 제품이다. HBM은 D램을 여러 개 쌓아 용 량을 늘리지만, 3D D램은 내부에 있는 셀을 수직으로 쌓은 한 개의 D램 이라는 점에서 대조된다. '칩 크기는 줄이고 데이터 처리용량은 늘려야 하는' D램 개발자의 영원한 과제가 더욱 중요해진 AI 시대엔 3D D램이 게임 체인저가 될 수 있다. - 3D D램은 스마트폰, 노트북처럼 작은 기기에 먼저 적용될 것 같지 만, 도로에서 수집한 수많은 데이터를 처리해야 하는 자율주행에 활용 될 가능성도 크다. 3D D램 시장은 2030년께 1,000억 달러(135조원) 규모에 이를 것이란 관측이 나온다. 4년 전부터 3D D램 연구를 시작한 마이크 론을 비롯해 경쟁사들도 3D D램 개발에 열중이지만 아직 로드맵은 공 개하지 못했다. SK하이닉스는 여러 기회에 3D D램 콘셉트만 공개한 정 도다. 중국의 경우, 메모리 1위 창신메모리(长存 CXMT)와 몇몇 업체들 도 3D D램 개발에 속도를 내며, 삼성전자를 추격할 기회를 호시탐탐 노 리고 있다. - '아차' 하는 순간 HBM 시장에서 SK하이닉스에 주도권을 빼앗기고 2023년 매출에서 TSMC, 인텔, 엔비디아에 밀려버린 삼성전자는 어디서 반격의 실마리를 찾을까? 반도체 산업 전반의 불황도 있었지만, 삼성이 사업을 잘못한 측면도 있었다는 업계의 평가 속에서, 삼성의 전략은 두 방향으로 펼쳐진다. HBM이 필요 없는 신개념 AI 가속기를 출시하는 게 그 하나, 그리고 동시에 HBM 시장에서도 치열하게 싸우겠다는 게 또다 른 하나다. 병행 전략, 즉, 투-트랙(two-track) 접근법으로 2년~3년 내 반도 체 세계 1위를 탈환하겠다는 각오다. 그리고 여기에 2030년까지 20조원 이 투입될 예정이다.
- NPU(Neural Processing Unit; 신경망 처리장치)는 AI 연산을 위해 인간의 뇌신 경망을 모방한 시스템반도체로, 정보처리 방식이 사람의 뇌(신경망)와 비 슷하다. CPU나 GPU보다 범용성은 떨어지지만, AI의 양대 축인 '학습' 과 '추론' 중 추론에 특화돼 있다. 특히 추론(서비스) 영역에서는 GPU보다 더 효율적이다. NPU는 주로 전자기기용 시스템 온 칩(SoC)에 장착돼 외 국어 자동 번역, 콘텐트 화질 업그레이드 등을 담당한다. 미래의 NPU는 아예 프로그래밍이 가능한 반도체(FPGA)라든가 주문형 반도체(ASIC) 혹 은 뇌 신경세포와 연결고리 구조를 닮은 뉴로모픽(Neuromorphic) 등의 형태 로 발전할 것이라 한다. 온디바이스 AI를 장착한 기기는 클라우드 연결 없이 자체적으로 AI 서비스를 구현하는데, 이 기능을 수행하는 것이 바로 NPU다. 온디바이 스 AI와 NPU는 한 몸처럼 같이 움직인다는 얘기다. 최근 온디바이스 AI 기능을 장착한 스마트폰, TV, 노트북, PC 등이 잇달아 나오면서 NPU는 덩달아 '귀한 몸'이 되고 있다. 시장조사업체 가트너는 NPU 시장 규모가 2022년의 326억 달러(43조 원)에서 2030년 1,170억 달러(약 154조 원)로 커진 다고 전망하는데, 이는 챗GPT 혁명이 불러온 변화의 하나다.
- 생성 AI 기술이 본격 도입되면서 빅 테크들은 AI 클라우드 플랫폼 경쟁력을 어떤 식으로 끌어올릴까? 다수의 경쟁력 있는 LLM과 생성 AI 소프트웨어를 한곳에 모아 기업 고객이 쉽고 편하게 활용할 수 있도록 하는 게 기본 방식이다. 고객의 생산성 향상에 요긴하다면, 경쟁사 제품 이라도 무슨 상관인가. 누가 만든 것이든 가능한 한 많은 AI 설루션을 적 극적으로 도입해 우리의 클라우드 경쟁력을 강화하면 되지 않는가. 수백 개의 생성 AI를 확보해 레고처럼 조립하도록 돕는 'AI 믹스' 시대를 열면 된다. AI 모델로 수익을 올리는 게 아니라, 클라우드 서비스로써 돈을 벌 면 되지 않겠는가. 그래서 MS에 이어 구글도 개방형 협업 툴이란 전략을 채택하면서 클라우드 시장을 달구고 있다. AI 업계는 최근 이들의 클라 우드 서비스를 특징짓는 3대 요소로 (1) 오픈소스 (개방형) (2) 원클릭(손쉬운 활용) (3) 데이터 보안을 꼽기도 했다. 여기서 우리는 앞으로 AI 시대를 받침할 클라우드 서비스의 공통된 흐름 혹은 트렌드를 짐작할 수 있다. - AI와 클라우드는 국가안보 문제와도 단단히 묶여 있다. AI를 국가 전략기술로 봐야 할 가장 큰 이유다. 세액공제 등의 방법으로 국내 기업· 기술을 키우지 않고 외국 서비스에 의존하다가는 데이터 주권을 빼앗길 까 봐 우려하는 이유이기도 하다. 그래서 최근 이른바 'Sovereign AI(소버 린 AI)'가 쟁점으로 부상한 게 아닐까. AI와 클라우드를 위한 데이터 저장 을 역내에서 제어하고 국가안보와 개인정보보호의 통제권을 확보하자 는 얘기다. 우리 정부도 AI 선도국들처럼 국가 차원에서 국내 AI·클라우 드 기술력을 확보해야 한다. 클라우드 전환은 피할 수 없는 추세이므로, 다른 민간 네트워크와 분리된 공공기관용 클라우드 권역을 마련해야 한 다. 국내에서는 NHN클라우드가 국가 AI 데이터센터를 조성하는 등 인 프라 분야에 강점이 있다. - 가령 MS의 AI '코파일럿' 개발에 사용된 약 7,200MWh의 전력은 웬 만한 도시가 사용하고도 남는 화력발전소 2곳의 발전량에 해당한다. 뉴 욕타임스는 4년 안에 AI가 연간 무려 130TWh(테라와트시) 이상의 전력을 쓸 것으로 예측한다. 네덜란드나 스웨덴 같은 국가가 1년 사용하는 전력 량과 비슷하다. 여기에는 AI 학습과 서비스 제공만 고려되었을 뿐, 소비 자들의 AI 기기 사용으로 늘어나는 수요는 포함되지도 않았다. 국제에 너지기구가 예측해본 2026년 상황을 보기로 하자. 그땐 전 세계 데이터 센터가 소모하는 전력량이 일본 전체에서 한 해 동안 사용하는 전기량 (939TWh)과 같은 수준일 거라고 했다. 인구 1억2,000만 명의 경제 대국이 1년간 쓸 전력이라니, 무슨 비유가 더 필요하겠는가.
- 인터넷은 통신으로 연결된 네트워크인 웹상에서 어떤 데이터나 정 보를 전송하고 수령하는 기술인데, 대부분 5개 층위(layer)로 구성된 다. 최하위 하드웨어 레이어부터 하드웨어와 네트워크를 연결하는 링 크레이어, 인터넷 프로토콜(protocol)로 부르는 네트워크 레이어, 데이 터를 분할하고 다시 조합하는 통신 레이어, 이용자가 정보를 공유하고 메시지와 파일을 교환하는 최상위의 애플리케이션 레이어가 있다. 블록 체인 이전 인터넷이 서버-클라이언트 컴퓨터 구조에서 정보를 전달하 는 데 그쳤다면, 블록체인은 인터넷의 통신 레이어 위에 위치하여 정 보를 전달하는 기능 외에 다수 컴퓨터에서 정보를 저장하고 코드를 작동하게 하는 다양한 온라인 서비스 기능을 수행하게 해준다. 인터넷의 기술적 구조가 중앙화 기관의 서버와 그에 연결된 다수의 클라이언트 컴퓨터로 이루어진 것이라면 블록체인은 서버 없이 각 컴퓨터들이 노 드로 참여하여 서로 P2P (peer to peer)'로 연결된 것이 다른 점이다." 인터넷이 등장한 초기에 개인들이 정보의 자유를 무제한으로 누릴 것이라는 희망이 매우 컸다. 사이버상에서 개인은 국가의 통제없이, 국가 경계의 제한 없이 자유롭게 정보를 생성, 전파하는 자유를 가질 수 있게 될 것이라는 기대까지 형성되었다. - 이더리움 창시자 비탈릭 부테린이 표현했듯이, 비트코인이 전화기 라면 이더리움은 스마트폰이라 할 수 있다. 스마트폰은 통화는 물론 각종 앱을 설치하여 이용할 수 있는 플랫폼이다. 비트코인이 기존 화 폐제도에 반발해서 나왔다면 이더리움은 비트코인의 바탕 위에서 사 회 · 경제를 구성하는 다양한 제도의 운영방식 개선 방안을 개발하면 서 나왔다. - 스마트 컨트랙트와 자산이전의 혁신 비트코인은 송금과 수취 관련 거래만 기록하지만 이더리움은 튜링 완전(turing-complete) 언어인 솔리디티(Solidity)'를 이용하여 스마트 컨트랙트 기능까지 구현했다. 이는 컴퓨터 프로그램에서 어떤 조 건을 충족하면 자동으로 가상자산의 이전 등 어떤 거래를 발생 · 완결 시키는(코드가 if then의 문장형식으로 이루어짐) 작동체계를 의미한다. 스마트 컨트랙트는 대중이 거부감 없이 받아들이고 기억하기 쉽다 는 측면에서는 용어를 성공적으로 선택한 것으로 보인다. 하지만 엄 밀한 의미에서 여러 국가의 법체계상 계약의 정의에 포함되는지는 논 란이 있다. 『이더리움 백서』에서는 '블록체인상 토큰 시스템(on-blockchain token system)'이라는 용어를 사용해서 미국 달러, 금 등과 연동된 하 위화폐, 주식과 스마트자산, 인센티브로 지급하는 다양한 토큰을 거래하는 시스템이 쉽게 구현된다고 설명한다. 그 시스템의 핵심은 결 국 한 가지 작업을 수행하는 것인데, 그 작업은 A와 B가 토큰거래를 할 때 A 계좌에서 X개 토큰을 차감하고 그 차감한 X개 토큰을 B 계 좌로 지급한다는 논리다. 그렇게 처리하는 조건은 A가 거래 전에 X개 이상의 토큰을 보유하고 있고 이 거래를 승인하는 것이다. 스마트라는 말을 붙인 것은 의사능력이 있는 법적 주체인 개인이 나 법인이 일일이 계약의 조건과 내용을 합의하지 않고도 미리 정해 둔 소프트웨어 알고리즘으로 자산의 이전이나 블록체인 원장상 어떤 상태의 변화를 실행한다는 의미이다. 물론 참여자들은 실명으로 확 인되거나 실명의 당사자와 1:1로 연결될 필요는 없다. 법 체계하에서는 계약의 체결과 이행이 논리적·실무적으로 구분되는 데 비하여 스마트 컨트랙트에서는 계약의 체결과 이행이 동시에 일어나고 계약내 용에 하자가 있어도 이미 이행이 완료된 스마트 컨트랙트를 해제·해 지하거나 수정할 여지가 없다. 이더리움이 창안한 스마트 컨트랙트는 다양한 목적을 이루는 데 활용되고 또 더 널리 활용될 것이다. 하지만 전통적 의미의 계약을 스마트 컨트랙트로 구성하는 기술적 방법은 앞 으로 더 많은 연구가 필요하다. - 전자지갑은 암호자산을 보관할 뿐 아니라 실물신분증 대신 개인의 암호화된 신원확인정보를 블록체인에 저장하고 그 정보를 필요에 따 라 검증하는 분산신원확인(DID) 시스템에서 신원확인정보를 통제하 는 프라이빗키도 보관할 수 있다. 전자지갑은 암호화폐 생태계에서 신원확인정보와 자산에 대한 접근권과 통제권을 행사하려면 반드시 필요한 기능이다. 전자지갑이 항상 인터넷에 연결되어 있어야 하는 것은 아니다. 인 터넷에 항상 연결된 핫월렛(hot wallet)에 개인키를 보관하는 경우, 전 자지갑 소유자는 언제라도 개인키를 사용하여 가상자산을 전송할 수 있다. USB메모리 같은 하드웨어 형태인 콜드월렛(cold wallet)에 개 인키를 보관하는 경우에는 지갑소유자가 필요할 때만 통신에 연결하 여 가상자산에 접속한 뒤 전송할 수 있다. 전자는 편리한 데 비하여 해 킹 등의 위험이 있고, 후자는 안전한 데 비하여 사용하기가 번거롭다.
- 페루의 경제학자 에르난도 데소토는 자본의 미스터리에서 자산 이 자본으로 전환되는 과정, 자본과 종이 문명의 관계에 대해 남다른 통찰을 보여준다. 그는 어떤 자산은 그 자체로 자본이 될 수 없으며, 자신이 가지는 경제적 잠재력을 부가적 생산활동에 활용할 수 있는 형태로 전환되어 고정된 상태를 자본으로 본다. 내 집 한 채는 그것이 지닌 경제적 잠재력을 자본으로 전환하기 전까지는 하나의 자산에 머 문다. 자본주의를 꽃피운 국가들은 집의 소유권과 거래제도를 법과 규정에 따라 확립하여 누구든 쉽게 그 집의 권리관계를 확인하고 그 집을 사고팔아 추가 생산활동에 활용하게 함으로써 자본화가 이루진 다는 것이다. 자본은 관념적으로 찾아내고 관리할 수 있어서 자본을 직접 만질 수 있게 하는 유일한 방법은 재산체제로 자산의 경제적 측 면을 종이에 기록해 특정한 소유주에게 귀착시킨다고 본다. 이에 비 추어보면 종이와 그 위에 기록된 재산체제는 자본주의를 발전시킨 핵 심의 하나라고 할 수 있다. 컴퓨터와 인터넷이 등장한 이후 수많은 권리와 지위를 표상하는 종 이와 종이 장부는 컴퓨터에 기재되어 디지털화(digitization)해 왔다. 하지만 그 예인 선불전자지급수단, 전자증권, 전자신분증은 기존의 종이로 작성된 중앙장부와 그 내용에 근거하여 발행된 실물형태의 화 폐, 주권, 신분증의 존재를 인정하되 그 실물종이의 내용만 디지털화 했을 뿐 실물을 발행하는 중앙화된 기관의 지위는 그대로 유지된다. 그러나 블록체인은 종이화폐, 실물신분증, 실물주권, 실물계약서를 사라지게 한다. 블록체인에 기록. 저장되는 데이터 자체가 그것들을 대체하게 되고, 이런 데이터가 복수의 장부에 분산 저장됨으로써 중 앙화된 기관 장부의 필요성과 효용도 없어지거나 축소될 수 있다. 블 록체인기술이야말로 이런 디지털 전환을 완성하고, 권리와 자산의 개 념에서 종이와 종이문명의 요소를 완전히 배제할 가능성을 보여준다. - 국제기구들도 토큰경제가 글로벌 차원에서 확산될 가능성을 자주 언급하고 있다. 예를 들어 세계은행이 2022년 3월에 발표한 「세계 의 암호자산 활동, 진화와 거시적 금융 추동력(Crypto-assets Activity around the World, Evolution and Macro-Financial Drivers)」 보고서 에서는 각 국가들에서 암호자산 거래량의 변화는 주로 미국 장기 인 플레이션 예상, 미국 국채수익률, 금과 암호자산 가격에 따라 결정될 뿐 최근 각 국가 내부의 거시경제적 발전으로 영향을 받지는 않는다 고 분석하고, 암호자산은 국경 간 거래를 지원하는 잠재적 수단으로 점점 더 선호될 거라고 내다보았다. 앞으로 자산의 토큰화가 확대되면 실물자산에 기반한 토큰의 거래도 글로벌 플랫폼을 이용하여 여러나라에서 활성화될 것이다. 자산기반 토큰 중 증권의 성격을 갖는 토큰은 각 나라의 규제에 따 라 발행이나 유통에 대한 제한이 다른 비증권형 토큰에 비하여 더 부 과되겠지만 점진적으로 각 나라가 증권형 토큰 생태계의 발전 추이를 보면서 자본시장의 개방정책이나 규제 변화를 모색할 여지도 있다. 어쨌든 현재의 다양한 실물기반 경제적 거래가 토큰 기반으로 전환될 경우, 경제적 현상은 글로벌 블록체인 메인넷과 그 위의 다양한 탈중 앙화 앱에서 이루지면서 경제의 글로벌 동조화가 가속되고, 그에 따 라 각 국가들의 법체계에 대한 통일화 논의가 더 확대될 것이다. - 이렇듯 앞으로 크립토사피엔스는 금융 분야는 물론 교육, 의료, 물 류 등 거의 모든 산업 분야에서 산업적 특성을 고려하여 블록체인 : 반 토큰경제의 이점과 인공지능의 장점을 적절히 결합해 나갈 것으로 예상된다. 챗GPT를 개발한 샘 알트만이 투자한 월드코인도 인공지능으로 인 한 문제를 블록체인기술로 해결하려고 한다. 월드코인은 인간과 인공 지능을 구분하고 인공지능으로 인한 일자리 손실을 상쇄할 수 있는 '보편적 기본소득(universal basic income)'을 제공하는 것을 목표로 한다. 인공지능이 널리 활용되면 온라인에서 거래하거나 발언하는 주 체가 진짜 사람인지 인공지능인지 구분할 필요성이 커질 수 있다. 이 때 사람은 지갑인 '월드 앱을 내려받아 휴대전화번호로 인증하면 '월 드ID'를 생성할 수 있고, 월드ID로 신원이 증명된 사람끼리 지갑을 통해 암호화폐를 교환할 수 있으며, 필요할 때마다 생성홍채인식으로 진짜 사람임을 인증(Proof of Personhood)할 수 있다. 보편적 기본소득은 사람으로 인증된 지갑에만 '월드코인' 토큰으로 지급한다는 것인데, 그로써 인공지능이 확산된 세상이 인간들 사이에 공평함을 유 지하는 데 일조한다는 비전을 내세운다. 현재까지 월드ID를 등록한 사람이 170만 명이며, 2024년에 월드코인을 발행할 예정이라고 한다. 인공지능의 급속한 확산을 기정사 실로 전제하고 인간의 고유한 정체성 확인과 최소한의 소득확보는 블 록체인 토큰과 지갑을 활용한다는 취지인데, 월드토큰의 발행과 배 분, 유통구조가 어떻게 구체화되는지 예의주시할 일이다. - 만약 월드코인의 비전대로 진행된다면, 인공지능에 대응하는 의미 를 넘어서 많은 사람이 신원확인을 월드ID로 하고, 월드코인이 글로 벌 지급수단으로 널리 이용되어 탈중앙화, 개인정보보호 등이 제대로 구현되는 게 매우 중요한 이슈가 될 것이다. 리브라가 등장했지만 갑 작스럽게 전 세계인이 이용하는 글로벌 지급수단이 되고 금융플랫폼 이 되는 데 대한 미국 정부의 우려와 거버넌스의 탈중앙성이 처음부 터 확보되지 못한 점 등이 원인이 되어 좌초된 점을 교훈으로 삼아야 한다. 크립토사피엔스가 산업과 기술뿐 아니라 인공지능의 확산으로 인한 인간의 문제 해결을 고민하고 주도하는 한 인공지능을 장착한 호모 데우스가 인류를 지배하는 일은 하나의 기우로 끝날 수 있다. - 기존 증권의 토큰화 현상이 더 가시화되고 확대될 경우 현재의 자본시장은 폭발적으로 성장할 수 있다는 예상이 나온다. 글로벌 컨설팅 회사 PwC(PricewaterhouseCoopers) 독일은 이렇게 발전할 자본 시장의 단계를 '자본시장 3.0'으로 정의했다. 자본시장의 발전 단계 를 자본시장 1.0, 2.0과 3.0으로 구분하는데, 각 단계는 시기와 구조 측면에서 Web1.0부터 3.0까지의 단계에 각각 대응된다는 흥미로운 분석이다. 자본시장 1.0은 글로벌 금융위기가 발생한 2007년까지로, 대형 투 자금융기관과 대규모 자본시장이 일방적인 시장지배력을 갖고 자금조달자의 수요에 맞춤형으로 설계했지만 그들이 이해하기는 힘든 상 품으로 금융기관이 큰 이익을 본 단계다. 자본시장 2.0에서는 금융상 품이 정형화 · 디지털화되어 거래와 결제까지 자동으로 이루어지는 상 품들이 늘어난 단계다. 소비자들의 참여는 늘었으나 소비자들이 금융 상품설계에 협업을 하지는 않는 단계다. 자본시장 3.0은 특정한 중앙 화 주체 없이도 탈중앙화된 금융 위주로 성장한다는 것이다. 앞으로 기존의 증권이 토큰화되는 데 추가하여 증권형 토큰을 디파이 플랫폼 에서 대여하고 차입하는 것을 활성화하거나 증권형 토큰의 기초자산 이 있는 경우 그 자산을 수익성 높게 운용하는 방안 등이 결부되면 증 권형 토큰으로 인한 자본시장의 혁신효과가 훨씬 크게 나타날 것이다.
- PwC는 또한 다음 세 가지 예측을 제시했다. 첫째, 자본시장 3.0의 핵심 전망은 자산의 토큰화로 현재의 많은 비 유동성 자산을 유동화할 수 있고, 자본시장에 참여하지 않는 여러 국 가와 계층의 사람들이 추가로 자본시장에 참여할 수 있다는 것이다. 2030년까지 지금은 유동화되지 않은 부동산, 데이터, 지적재산권 등 의 자산이 토큰화되어 유동화될 것으로 추산되는 자산규모가 1조 6,000억 달러(한화 약 2경 원)라는 놀라운 금액이다. 자본시장이 존재 하는 이유는 사람들을 유동성과 연결하는 것이고 토큰화로 자본시장 이 더 발전할 거라고 보기 때문이다. 둘째, 탈중앙화거래소(DEX)의 큰 성장이 예상되는데, 현재 전체 가상자산거래소의 거래대금 중 탈중앙화거래소에서 거래되는 금액은 전체의 10%인 100억 달러 정도에 불과하기 때문이라고 본다. 셋째, 많은 증권형 토큰이 NFT로 발행되고 NFT 커뮤니티의 발전 이 예상되는데, NFT가 2021년 말 이후 쇠퇴 중이나 곧 이전 NFT 시 가총액의 최고액인 총가액 20억 달러를 갱신할 것이라고 예측한다. 블록체인의 기술력만으로 자본시장 3.0이 발전할 수 없으므로 더 많은 사람을 교육하여 이해를 넓힘으로써 많이 사용하도록 해야 하 고, 현재의 중앙화금융(CeFi)시스템을 이용해 디파이에 접근할 통로 를 제공하는 것도 중요하다고 강조한다.
- 토큰을 거래에서 지급결제수단으로 쓰면 결제의 신속함, 낮은 수수 료, 국제간 결제의 편리함이라는 효용을 누릴 수 있다. 비트코인은 송 금 거래 블록이 형성되는데 10분이나 걸려서 수많은 거래를 실시간 으로 기록하기 힘들므로 일상적 재화와 용역대금의 직접적 지급결제 수단으로 널리 이용되지 못하고 있다. 그러나 몇 년 사이에 토큰을 다양한 형태의 지급결제수단으로 쓰 는 수요가 늘어서 머지않아 토큰결제가 일상화될 가능성이 커지고 있 다. 우선 카드사들이 기존 카드결제에 다양한 형태로 토큰을 결합해 나갈 것이다. 결제업의 대표주자인 비자와 마스터카드사가 입맞추어 '앞으로 3~5년이면 토큰이 지배적 지급결제수단이 될 터여서 자신 들이 그 흐름에서 뒤처지고 싶지 않다고 밝혔다. 흥미롭게도 카드사 들이 이런 변화를 꾀하는 가장 큰 원동력은 카드사 고객들이 점점 더 토큰으로 대금지급결제를 희망한다는 사실이다. 즉 고객들은 이왕이면 믿을 만한 대형 카드사들이 토큰으로 대금지급결제를 해주기를 원 한다는 분석이 나왔다. 지급결제수단인 토큰 자체는 탈중앙화된 플랫 폼에서 발행되더라도, 토큰을 이용한 결제대행업은 기존 관념의 신뢰 를 받는 중앙화된 회사가 담당해 주기를 일반 소비자가 원한다는 데 서 대중은 상황에 따라 탈중앙화와 중앙화 구조를 교차로 원할 수도 있다는 사실을 알 수 있다. 현재 비자와 마스터카드가 토큰으로 결제하는 구조는 제3의 핀테 크회사와 협업하는 방식이다. 이용자가 카드를 이용하여 크립토 토큰 단위로 결제하면, 협업하는 팍소스가 뒷단에서 크립토를 매입해 현금화한 다음 가맹점에 현금으로 대금을 정산해 주는 구조이다. 그러나 장기적으로 카드회사는 직접 카드 이용자로부터 크립토를 받아서 가 맹점에 정산해 주는 구조를 꿈꾸고 있다. 현재 쓰이는 직불카드(debit card)가 은행잔고 범위 내에서 사용되는 것처럼 전자지갑 계좌에 보 관 중인 토큰 범위 내에서 결제하는 방식이다. 그것이 현실화되면 수 십 년간 법정화폐에 연계된 대금결제시스템에 엄청난 변혁이 발생하 게 된다. 그러나 불확실성도 있다. 크립토 토큰이 해킹당하거나 크립토 토큰 의 플랫폼 운영상 하자 같은 보안사고에 대한 방지책이 필요하다. 규 제당국의 관점에서는 지급결제회사가 대량의 토큰으로 결제대행을 하려면 만약의 사태에 대비하여 지급된 토큰에 상응하는 준비금이나 담보금이 필요한지 검토도 해야 한다. 가맹점에서는 궁극적으로 카드 사 개입을 배제하고 토큰을 바로 대금으로 받기를 희망할 수도 있는 데, 카드사에 지급하는 수수료를 절약할 수는 있지만 어떤 리스크를 안게 될지에 대한 분석도 필요해진다. 페이팔도 2021년 블록체인 플랫폼인 소스와 협업해 토큰 지급 을 허용했다. 이용자가 팍소스 플랫폼 위에 전자지갑을 개설해 토큰 을 보유한 상태에서 가맹점에서 물건을 사면서 페이팔 앱에서 비트 코인 등 암호자산을 지급수단으로 선택해 지급하면 된다. 그러면 팍소스 트러스트(Paxos Trust)가 그 암호자산을 받아 법정화폐로 환전해 가맹점에 정산·지급하는 결제시스템이다. 페이팔은 뉴욕주에서 가상자산 매매, 송금, 결제업을 하는 것과 관련해 비트 라이선스(Bit License)를 취득했으며, 이와 같은 결제대행을 금지하거나 제한하는 다른 규제는 없다. 비자는 스테이블코인을 이용해 결제하는 방법을 준비하고 있다. 우 선 이용자가 스테이블코인으로 대금을 지급하면 비자가 법정통화로 환전해 가맹점에 정산 지급하는 구조인데, 장기적으로는 이용자, 비 자, 가맹점 사이에 스테이블코인으로 지급·결제하는 구조도 고려하 고 있다. 아직 대부분 미국 은행은 토큰 가격의 변동성을 이유로 자신 들이 발급한 카드로 고객들이 토큰을 사는 것을 허용하지 않는다. - 한국에서도 비트코인 같은 토큰을 결제수단으로 가게에 직접 지급 하고 가게에서 그를 수령하는 데는 별다른 금지나 제한을 하지 않았 다. 그러나 물건 구매자와 가게 사이에 직접 지급수단으로 사용하는 것을 넘어 제3자가 토큰을 이용해 지급결제대행업을 하거나 선불전 자지급수단 발행, 관리업 등록을 한 회사가 토큰을 선불전자지급수단 의 충전수단으로 활용하는 데는 제동을 걸고 있다. 다날이 스위스에 설립한 자회사 페이프로토콜은 스위스에서 페이코 인을 발행해 지급수단으로 쓰려는 구조를 만들었다. 페이프로토콜은 페이코인을 한국의 몇몇 거래소에 상장하고, 페이코인으로 결제가 가 능한 레스토랑, 편의점 등 수십 개의 가맹점을 모은 후 이용자들이 가맹점에서 물건이나 음식을 산 다음, 페이코인으로 다날 앱에서 지급하 면 다날이 지급된 페이코인을 받는 대신 가맹점에 현금으로 대금을 정 산해 주는 구조였다. 다날은 지급받은 페이코인을 일정 주기별로 다날 핀테크에 매도해 대금을 수령했다. 다날은 전자금융거래법상 선불전 자지급수단 발행·관리업과 지급결제대행업 등록을 이미 한 상태였다. 이런 구조가 나오자 금융위에서는 다날이 토큰으로 선불전자지급 수단을 충전하는 데 부정적인 태도를 보였고, 다날 자회사가 발행한 토큰으로 대금을 지급하는 것을 다날이 지급결제를 대행하는 데도 일 반 이용자에게 위험을 줄 수 있다는 이유로 허용하지 않겠다고 했다. 계열사가 발행한 토큰을 다른 계열사가 지급결제수단으로 사용하도 록 지급결제대행업을 하면 실질적으로 아무런 제한없이 화폐를 발행해 엄청난 주조차익(발행화폐의 액면가액에서 발행비용을 공제한 금액 상당 의 이익을 발행자가 취함)을 차지하는 문제점이 있고, 암호자산거래소에 서 발행사가 임의로 언제나 많은 수량을 매각하게 됨으로써 토큰 보 유자에게 예측할 수 없는 큰 손해를 줄 수 있다는 점이 주된 이유였다. 엄격한 의미에서 토큰을 선불전자지급수단의 충전수단으로 허용할 수 없다는 것과 토큰으로 지급결제대행을 해서는 안 된다는 것도 법 률에 명백하게 규정되어 있다고 보기 어려운데도 국가는 토큰을 지급 결제업에 이용하는 것이 예측하지 못한 위험을 가져올 수 있다는 이 유를 내세워 토큰을 지급결제수단으로 사용하지 못하도록 정책적으 로 제한하고 있다.
- Web3.0의 개념은 아직 명확하게 정립되어 있다고 하기 어려우며, 이 용어를 쓰는 사람이나 맥락에 따라 매우 다양한 의미를 나타낸다. 실리콘밸리의 벤처캐피털 앤드리슨 호로위츠의 총괄파트너 크리스딕슨이 '사용자와 생산자가 토큰을 기반으로 공동소유하는 인터넷'이 라고 한 표현에 비교적 함축된 의미가 들어 있다. 이더리움 공동 개발 자 개빈 우드는 Web3.0을 '애플리케이션 제작자들이 쉽게 개발하도 록 돕는 프로토콜의 묶음'으로 프로토콜은 컴퓨터 사이에 데이터를 교환하는 방식을 정의하는 표준화된 규칙과 절차를 의미한다고 한다. 여기서는 개념을 가능한 한 넓게 정의하고자 한다. 우선 웹기술 측 면에서는 컴퓨터가 웹페이지에 담긴 내용을 맥락에 따라 이해하고 개 인 맞춤형 정보를 제공하는 시맨틱 웹기술 또는 지능형 웹기술을 도 입하여 Web3.0 이 시작되었다. Web2.0 에서는 플랫폼 운영자가 컴 퓨팅, 저장공간, 호스팅 등 모든 웹 관련 서비스를 제공한 데 반해 Web3.0 에서는 프로토콜이 그런 서비스를 대체한다. - 인터넷 플랫폼과 앱의 운영권한과 생성된 데이터의 소유권을 누가 갖는지를 기준으로 보면 플랫폼 운영자가 독점하는 구조에서 벗어나 사용자들에게 권한 권리 · 이익을 나눠주려는 방향성과 실행방안이 Web3.0 의 요소를 구성한다고 할 수 있다. 우선 Web3.0은 플랫폼의 지배구조, 수익배분, 데이터 통제권에서 Web2.0과 달리 탈중앙화와 오픈 플랫폼을 지향한다. 이용자는 읽고 써서 기여함으로써 보상을 받고 플랫폼을 일부 소유해 플랫폼 수익도 분배받는다. 플랫폼을 이 용하거나 그에 기여하는 개인의 데이터는 개인이 소유하며, 개인정보 는 해당 개인이 통제할 수 있다(read, write, open&own). 이 요소들이 Web3.0 이 추구하는 본질적 가치이다. Web3.0은 인터넷과 모바일 시대에 큰 역할을 한 플랫폼 경제구조의 한계점을 개선하려는 큰 목 표 아래 Web2.0 구조하의 이용자와 공급자의 엄격한 구분과 수익의 집중현상을 해결하고 그동안 단순히 이용자 지위에만 머물러 온 개인 들에게 운영자·수익자의 지위를 겸하게 하도록 변화를 꾀하자는 사 회 · 경제 · 문화적 현상이라고 할 수 있다.
- 웹3.0과 블록체인의 결합 Web3.0 이 추구하는 가치와 방향성을 구현하려는 다양한 방법 과 기술을 모색하는 과정에서 많은 사람이 블록체인기술과 블록체 인 기반 서비스가 필요하다는 사실을 절감하면서 Web3.0 과 블록체 인은 필연적으로 그리고 전방위적으로 결합되었다. Web3.0 을 블록 체인과 거의 같은 개념으로 쓰는 사람들도 있으나 위에서 보았듯이 Web3.0 은 인터넷의 변화에 따른 사회 · 경제 · 문화 · 정치적 변화를 모 두 포괄하는 데 쓰이지만 블록체인과 암호자산, 토큰경제는 그 변화를 가능케 하는 필수불가결한 기술이자 체계라는 점에서 차이가 있다.'
- 기존 ID체계의 문제점과 DID의 필요성을 인식하여 신분증 체계를 블록체인 기반 DID 방식으로 바꾸려는 시도가 늘고 있다. 모 든 분야의 디지털화가 폭넓게 진행되고 있는 현실에서 신분증의 발급 및 신원확인도 그에 맞추어 디지털 방식으로 변경되는 것은 자연스러 운 현상인 것 같다. 민간에서 DID체계 개발과 확산을 위한 연합프로 젝트들이 진행되고 있다. 블록체인 기술회사인 아이콘루프가 주도하 는 마이아이디(MyID)와 SK텔레콤과 다른 통신사들이 공동으로 진행하는 이니셜, 보안기업 라온시큐어가 주도하는 DID얼라이언스 등이 있다. DID는 발급기관(예를 들어 경찰청장)이 어느 개인이 본인인지 확 인한 후 전자적 형태의 암호화된 ID (예를 들어, 운전면허상 신원정보)를 그 개인의 스마트폰으로 발급하고, 개인은 이를 스마트폰에 저장한 후 ID 발급 내역은 신원검증 블록체인에 저장해 두었다가 누가 신원 확인 · 검증을 요청하면 블록체인을 통해 ID를 검증해 주는 시스템이 다. 위 이미지가 DID 작동구조의 핵심을 잘 보여준다. 기존의 중앙화된 신분증 발급·관리체계와 달리 발급기관이 독점적 으로 관리하던 신분증 대장이나 서버 대신 다수 당사자가 노드로 참 여하는 블록체인에 신분확인 관련 정보를 저장하고 이용자가 필요할 때마다 정보의 진위를 검증해 주는 시스템이다. DID체계가 작동되기 위해서는 신원확인정보 발급기관 외에 검증인과 블록체인의 노드가 필요하다. 발급기관은 해당 개인이 본인이라는 대면확인 등 엄격한 절차를 거쳐 신원확인정보, 즉 이름, 주민등록번호, 여권번호, 운전면 허증 번호 같은 신분증 발급번호와 주소 등을 확인한 후 그 정보를 암 호화해서 검증가능신원확인정보(VC, Verifiable Claims)로 만들어 개 인 휴대전화로 발급 · 전달하고, 블록체인에는 그 VC 발급사실과 내역 을 기록한다. 개인은 발급받은 VC를 자기 휴대전화에 저장한 뒤 신원확인 또는 자격확인을 위해 필요하다고 판단할 때만 저장된 VC 전부 또는 일부를 개인키로 전자서명을 해서 검증가능제공정보(VP, Verifiable Presen- tation)로 만들어 신원확인 검증인에게 제출하고, 검증인은 블록체인에 진위검증과 신원확인 요청을 해서 확인받는다. 이를 단순화하면 DID 체계에서의 주요 당사자와 정보/데이터의 흐름은 다음 도표와 같다." DID 신분증 발행인이 이용자의 스마트폰으로 암호화된 VC를 발행 해 주고, 이용자는 공적 또는 사적으로 신원이나 자격확인을 해야 할 필요성이 있을 때마다 VC 중 필요한 범위 내의 VP를 검증인에 제출 하여 검증받는다. 검증인은 블록체인에 저장된 이용자의 신원확인정 보 및 VC 발급내역정보와 VP를 대조하여 동일인의 것인지 검증한다. 술집에서 고객을 받을 때 확인하려는 정보는 성인 여부다. 그런데도 실물신분증을 갖고 술집에 들어갈 때 신분증에 기재된 모든 정보를 보여주어야 하지만, DID에서는 전체 신원확인정보인 VC 중 나이 정보만 VP로 제공하면 되는 이점이 있다. 여기서도 전자지갑은 필수적이다. 이용자가 스마트폰의 전자지갑 에 개인키를 보관하고 있다가 VP를 개인키로 전자서명하여 검증기관 에 제공하면, 검증인은 그의 공개키를 이용하여 그 이용자의 VP임을 확인할 수 있다. 이때 신원확인정보의 저장과 확인은 개인의 스마트폰에 내려받은 앱으로 하게 되며, 이러한 앱서비스는 분산신원확인이 지향하는 탈중앙화 정신의 취지에 따라 정부뿐 아니라 민간회사도 제공할 수 있다. 위와 같이 신원확인정보를 저장하고 진위검증과 신원확인을 하는 구체적인 기술적 구조는 설계하기에 따라 다를 수 있다. 현재 행정안전부도 정부가 발행하는 주민등록증, 운전면허증, 여권, 장애인증명 등 각종 신분증을 DID 형태로 발급하고 필요할 때 ID를 검증해 주는 분산신원증명 블록체인 플랫폼을 계획하고 있다. 필자는 - 2021년 정부는 여기서 말하는 DID 에 해당하지는 않지만, 시범적 으로 모바일 운전면허증 서비스를 시작했다. 스마트폰의 패스(PASS) 앱에서 본인인증이 된 사람이 실물 운전면허증의 사진을 찍어 제출하 면 면허증과 같이 생긴 모바일 운전면허증이 발급되며, 필요할 때 QR 코드 또는 바코드 형태로 제시할 수 있다. 그러나 이러한 모바일 운전 면허증은 엄격한 의미에서 신원증명 ID의 발급에 관한 정보를 블록체인 분산원장에 저장하고 요청이 있을 때마다 ID를 검증해 주는 체 계는 아니다. PASS 앱에서 보여지는 운전면허증 이미지를 보여줌으로써 운전면 허증 제시와 같은 효력을 부여하는 것으로, 규제 샌드박스를 이용해 한시적으로 허용하는 서비스이다. PASS 앱에서 보여지는 운전면허증 이 실물운전면허증과 같은 효력을 가지는 것은 아니다. 정부가 발급하는 신분증 중에서는 역시 운전면허증을 가장 먼저 블 록체인 기반으로 발행하기 시작하였다. 2022년부터 블록체인 기술에 기반한 모바일 운전면허증을 발급하였다. 이름, 주민등록번호, 주소, 사진 등 운전면허증 정보를 개인의 휴대폰에 저장한 후, 개인이 필요한 경우에 필요한 범위의 정보만 제공할 수 있는 방식으로, 실물 운전면허증과 동일한 법적 효력을 부여하고 있다. 모바일에 발급, 저장된 정보와 블록체인에 저장된 정보를 검증하는 절차와 기술적 구조에 대 해서 자세하게 알려져 있지는 않다. 2023년 6월 행정안전부는 실물 주민등록증을 대체하는 모바일 주 민등록증을 발급할 수 있는 법률안을 만들었다. 아직 구체적인 발급 구조와 기술적 내용은 알려지지 않았지만, 탈중앙화 정신을 반영하여 주민등록증 정보를 암호화해서 개인의 휴대폰에 저장하고, 개인이 허 용할 때에만 다른 사람이 정보를 열람하거나 이용할 수 있도록 하는 구조로 보도되었다.
- 불완전한 또는 위장된 탈중앙화 탈중앙화는 블록체인기술의 핵심이지만 실제로 블록체인 합의 알 고리즘을 운영할 때 탈중앙화가 제대로 구현되지 못하는 경우가 있 다. 탈중앙화를 구현할 의사 없이 탈중앙화의 외관만 가지는 가장된 탈중앙화나 탈중앙화를 의도했으나 기술적·운영적 이유로 제대로 구 현하지 못하는 불완전한 탈중앙화가 나오는 이유는 블록체인을 운영 하는 인간의 양면성 때문이라고 본다. - 탈중앙화를 내세우는 블록체인 프로젝트가 얼마나 명실상부하게 탈중앙화를 구현하는가? 사실 탈중앙화금융 플랫폼도 완벽하게 모든 과정을 탈중앙화하지 못하고 있다. 예를 들어 이더리움 기반의 합성 자산을 발행하고 거래하는 탈중앙화 합성자산신세틱스 플랫폼에서 는 시스템의 기능 일부분, 즉 다른 서버에 있는 파일, 데이터 등의 데 이터를 찾아 가져오는 프록시 (proxy)기능은 중앙화된 주체가 담당한 다고 공개했다. DAO도 초기 코어팀이 프로토콜을 개발하고 거버넌 스 구조를 정할 때 초기 코어팀에게 투표권이나 의안 제안권을 더 비 중 있게 부여하거나 실질적인 혜택을 제공하는 구조가 될 수도 있다. - 각종 블록체인 플랫폼에 외부 정보를 취합하여 제공해 주는 오라클도 현재 주로 중앙화된 주체가 수행하는 모델인데, 더 높은 신뢰를 얻기 위하여 점진적으로 탈중앙화 방식으로 전환하려고 한다. - 실제 ICO나 토큰판매계약(token sale agreement), 장래토큰판매계 약(simple agreement of future token)의 실태를 보면, 발행자 이익에 너무 치중하며 토큰 구매자나 투자자 입장은 거의 보호하지 않는 구 조가 많다. 지금까지 본 여러 분야의 다양한 계약 유형 중 당사자 간 의 이해관계조정에서 가장 편향적인 계약이었고, 한쪽 당사자인 매도 인에게 일방적으로 유리한 계약이었다. 예를 들면 토큰 개발이 실패 로 끝나도, 토큰 개발기간이 아무리 늦추어져도, 토큰에 기술적 하자 가 있어도 매수인은 매도인에게 일절 책임을 물을 수 없게 되어 있다. 이같이 계약 당사자 사이에서 협상력이 현격하게 기울어진 이유는 어떻게 하든 토큰을 매수하겠다는 열기가 뜨겁고 묻지 마 투자가 확산되다 보니 매매계약에서 일반적 · 통상적으로 매수인이 자신의 정당한 이익을 보호받고자 규정을 넣어달라고 요청하지 않았거나 요청할 수 없는 상황이 되었기 때문이다. 또 자유경제시장에서 자산매매에 대한 오랜 거래에서 관행으로 확립되어 온 정형적으로 채택하는 계약 서의 구조와 조항도 거의 무시당했다. 토큰이 여러 노드의 동등한 의결권과 지위를 근간으로 하는 탈중앙 화 구조에서 생성되었지만 막상 토큰 판매계약의 구조는 지극히 불공 평하거나 불공정하다는 현실이 아이러니하게 느껴졌다. 탈중앙화를 남들에게 명분과 구호로 내세우기는 쉽지만 이를 제대로 이해하고 실 용화하는 데는 많은 연구와 시행착오를 거쳐야 한다. 어쨌든 2018년 을 지나면서 ICO의 열기는 가라앉았고, 따라서 판매자 이익만 주로 고려한 계약서 양식도 쓰이는 일이 급격히 줄어들었다.
- 테라는 앵커프로토콜에서 테라 예금자에게 20% 가까운 이자를 지 급한 후 테라 수요가 급격히 증가하고 그에 따라 루나 수요도 증가하 면서 가격이 올랐다. 여기서 문제는 20% 가까운 이자율이 지속가능 했느냐 또는 지속가능하지 않음을 충분히 알면서도 의도적으로 플랫 폼 이용자들을 속이려 했다고 볼 수 있느냐다. 테라 프로토콜이 언제 든 1달러 상당의 루나와 테라를 교환해 줌으로써 테라 가격을 1달러 에 수렴하는 알고리즘을 만들었지만, 테라폼랩스는 알고리즘만으로 는 테라 가격이 유지되지 못하고 테라 가격과 루나 가격이 동시에 떨 어질 상황에 대비해 테라를 매입할 자금을 확보했다. 루나 파운데이션 가드(Lunar Foundation Guard)라는 비영리재단을 설립하고 10억달러의 재원을 확보해 비트코인을 매입한 것이다. 그러나 결과적으로 테라 가격 붕괴 시 급락을 막으려 비트코인을 팔아 테라를 매입하는 과정에서 오히려 비트코인 가격까지 급락하 는 충격을 가져왔을 뿐 테라 가격 방어에는 성공하지 못했다. 그럼에 도 위와 같이 상당한 양의 비트코인을 확보했다가 실제로 테라 가격을 방어하고자 비트코인을 매각해 테라를 매입한 사실은 테라 가격을 1달러에 유지하려 한 데 진정성이 있었음을 뒷받침한다. 다만, 그런 조치만으로는 실제로 테라 가격을 유지하기에 불충분했다. 이런 점들 을 종합적으로 보면, 테라의 탈중앙화 구조는 설계자가 1달러 연동이 불가능한 점을 알고도 악의로 투자자들에게 연동이 가능하다고 거짓 말한 것이 아니라 불완전한 설계와 작동에 가깝다고 판단된다. 유발 하라리는 호모 데우스」에서, 인간의 도덕적 통제 없이 블록 체인기술이 발전하면 많은 사회적 기능이 블록체인 코드로 대체되고, 결과적으로 소수가 코드를 통제하거나 지배할 위험성이 있다고 지적 했다. 블록체인이 확산된 결과가 탈중앙화 정신을 제대로 살리지 못하는 정도가 아니라 탈중앙화를 추구한 블록체인이 많은 것을 코드화 · 프로토콜화하는 과정에서 오히려 누군가가 코드와 프로토콜의 개 발과 운영을 장악하고 통제할 우려까지 있다는 의미로, 탈중앙화 논 쟁에서 새겨볼 만한 대목이다. 불완전한 탈중앙화 블록체인 플랫폼에서 실제로 통제권이나 영향 력이 있는 사람들이 프로토콜의 구조와 작동의 오류에 책임을 부담 해 프로토콜 붕괴, 비정상적 작동, 백서 기재와는 다른 오작동 등으로 손해를 입은 자들에게 배상책임을 져야 한다는 법적 주장이 대두되고 있다. 이런 논의는 나라별로 전개과정이 다르고 법제화 여부와 정도 도 다를 수 있지만, 탈중앙화 블록체인을 정확히 인식하고 신뢰를 제고하려면 불완전하거나 무늬만 탈중앙화된 플랫폼에서 발생하는 사고와 문제점에 누군가는 책임지는 방향으로 정립되어야 한다.
- 버너스리는 미래의 웹은 시맨틱 웹Semantic Web이 될 것이라고 2001년 전망한 바 있다. 시맨틱은 '의미론적인'이라는 뜻이다. 무수히 많은 정보의 홍수 속에서 불필요한 정보를 걷어내고 사 용자에게 꼭 맞는 정보를 제시해야 한다는 것이었다. 모두가 손쉽게 이용하는 범용성을 갖추면서도 나에게 꼭 맞 는 정보를 골라 볼 수 있다는 점에서 개인화된 특징을 모두 갖 고 있는 웹은 기술적으로는 구현하기 어려워 보였다. 하지만 챗GPT가 등장하면서 많은 이가 웹의 변화를 목격하고 있다. 마이크로소프트가 챗GPT를 업데이트해 자사의 검색엔진인 빙Bing에 탑재했으며, 구글 역시 새로운 인공지능 검색엔진의 도입을 서두르고 있다. 생성형 인공지능의 등장으로 모든 이의 예상을 깨고 웹3.0의 서막이 서서히 올라가고 있는 것이다.
- "스스로 학습할 수 있는 인공신경망은 훗날 인간의 두뇌처럼 사고하고, 다른 행성에 보내져 우주탐사 활동에도 쓰일 것이다.” (프랭크 로젠블랫) - 20세기에 접어들자 수학자들은 모든 논리를 수학으로 증명 할 수 있으리라 믿었다. 영국의 철학자이자 수학자인 버트런드 러셀 Bertrand Russell 과 앨프리드 화이트헤드Alfred Whitehead는 《수학 원리 Principia Mathematica》를 통해 언어 중심의 논리학에 종지부를 찍었다. 이들은 모든 명제는 수학적 형식으로 증명할 수 있다 고 믿었다. 이 책은 훗날 등장할 수많은 학자에게 큰 영향을 주 었으며, 이를 반박하고 재반박하는 과정을 통해 컴퓨터과학은 크게 발전한다. - 수학이 논리학을 대신할 것이라는 생각에 도전한 이는 독일 의 수학자 쿠르트 괴델 Kurt Gödel이었다. 그는 1931년 《수학 원리》와 관련 체계들의 형식적으로 불가능한 명제들에 관하여> 라는 논문을 발표하면서 학계의 시선을 사로잡았다. 러셀과 화이트헤드는 수학적으로 풀 수 없는 논리란 존재하지 않는다고 선언했지만, 괴델은 아무리 완벽한 논리 체계를 만들더라도 참 인지 거짓인지 판단할 수 없는 명제는 반드시 존재한다는 사실 을 수학적으로 입증했다. - 폰노이만은 최초의 프로그램 내장 방식 컴퓨터인 에드박 EDVAC 개발에 참여해 오늘날 컴퓨터와 같은 입력, 제어, 산술 및 논리, 기억, 출력 장치라는 방식을 고안한다. 새로운 프로그램 을 구동하기 위해 하드웨어를 통째로 바꾸는 번거로움이 사라 진 것이다. 핵심은 중앙처리장치 CPU 옆에 기억장치를 붙인 것 인데, 필요한 자료를 기억장치에 저장한 뒤 사람이 지시하는 명령에 따라 해당 작업을 차례로 불러내는 방식이었다. 폰노이만 구조는 현대적 컴퓨터 구조라는 점에서 큰 의의가 있지만 중요한 과제를 남겼다. 폰노이만이 이러한 방식을 고안할 때 참고한 것은 인간의 사고 능력이었다. 사람은 평상시 모 든 기억을 항상 떠올리고 살진 않지만 특정 기억이 필요한 경 우 머리를 짜내 기억을 되살린다. 메모리에 보관된 데이터를 필요시 CPU에 불러내 사용한다는 아이디어는 사람을 모사한 장치였다. 하지만 폰노이만 구조는 기계적으로 하나씩 순차적으로 불 러내야 한다는 점에서 막대한 데이터를 처리해야 하는 인공지능 연산에서는 적합하지 않았다. 연산할 숫자의 자릿수가 증가할 때마다 계산에 필요한 시간은 기하급수로 증가한다. 10의 13 자릿수를 계산할 때 10초가 걸린다면 10의 20자릿수는 그 1000만 배인 1억 초(약 3년)가 소요된다. 생각이 틀을 규정하기도 하지만, 틀이 생각을 규정하기도 한 다. 컴퓨터과학계에서 상징과 기호 효율을 중시하는 기호주의 학자들이 인간의 두뇌를 닮은 연결주의 인공지능이 실패할 수 밖에 없다고 믿었던 이유도 폰노이만 구조 때문이었다. - 두뇌의 작동원리를 모방하다 오늘날의 인공지능과 유사한 인공신경망을 지닌 최초의 알고리즘은 연결주의의 중심인물인 프랭크 로젠블랫이 만든 퍼 셉트론Perceptron이다. 인공지능이 신경망 neural network으로 도약 을 준비하는 순간이었다. 로젠블랫은 뉴욕 주에 있는 코넬항공 연구소에서 인지시스템 부문 책임자로 활동하면서 1957년 퍼 셉트론이라는 인공신경망 시스템을 발표했다. - 로젠블랫이 모방하고자 했던 것은 두뇌의 작동원리였다. 그는 생물학적 시스템이 실제로 어떻게 정보를 감지하는지, 정보 는 어떤 형태로 저장이 되는지, 저장된 정보는 우리 인식에 어 떤 영향을 주는지를 깊이 연구했다. 당시 신경망의 작동 방식 은 여전히 미지의 세계였다. 학계에서는 오직 두 가지 가설만이 존재했다. 첫 번째는 신 경망으로 들어오는 신호를 저장하는 별도의 기억장치가 존재 한다는 학설, 두 번째는 신경망에 있는 연결 자체가 신호를 저 장한다는 학설이었다. 퍼셉트론은 후자를 입증하기 위한 일종 의 도전적 실험이었다. - 이해를 돕기 위해 우리가 컵을 인식하는 방법을 떠올려보자. 이 세상에는 수많은 컵이 존재한다. 하지만 인간은 컵의 모양 이 다르더라도 0.1초 내에 이것이 컵인지 아닌지를 식별할 수 있다. 망막에 상이 맺히면 그 정보는 우리 뇌에 있는 뉴런으로 이동한다. 신경세포인 뉴런이 모인 것이 대뇌피질이다. 뉴런은 정보의 강도에 따라 활성화되거나 비활성화된다. 뉴 런이 활성화되려면 일정한 자극, 즉 임계치 이상의 자극을 받 아야 한다. 활성화된 뉴런은 통로인 시냅스를 통해 결과값을 다른 뉴런으로 전달하고, 궁극적으로는 최상위에 있는 추상화 뉴런에 전달한다. 이 뉴런이 종합적으로 판별해 순식간에 컵인지 아닌지를 판단하는 것이다. 퍼셉트론은 인간의 뇌가 이러한 논리로 작동할 것이라는 가 설을 토대로 설계되었다. 단일 뉴런을 갖춘 인공신경망으로 시 각에 해당하는 인풋 노드(인풋 층)가 있고 여기에 들어온 정보 를 한 개의 뉴런에 해당하는 인풋 유닛에 전달한다. 인풋 유닛 은 패턴을 분류하고 그 결과값을 아웃풋 유닛에 전달한다. 중요한 것은 각 인풋 노드의 연결 강도다. 이는 뉴런의 받아들이 는 신호 자극의 세기를 모방한 것이다. 연산적으로는 가중치를 곱한 값을 합산해 결정하는데, 임계치보다 큰 경우 1의 결과, 그렇지 않을 경우 0의 결과를 도출하는 계단함수다. 따라서 결 과는 O와 X 두 개로 나타난다. 기호주의를 따랐다면 가중치를 직접 입력했을 것인데, 연결 주의를 표방한 퍼셉트론은 학습이라는 방법으로 이를 해결하 려 한 시도였다. 로젠블랫이 위대한 것은 가중치를 스스로 수 정하는 알고리즘을 만들었다는 데 있다. - "속이고 잡아내라” GAN의 출현 2015년을 전후해 출현한 새로운 인공지능 모델들은 종전 모 델의 성능을 앞도하기 시작했다. 그동안 인공지능 모델은 신 경생물학의 영향을 받아 장기 기억을 저장하는 방법을 연구하 고 있었다. 신경심리학자인 도널드 헤브Donald Hebb는 자신의 책 《행동의 조직화 The Organization of Behavior》에서 우리 뇌가 무엇인가 를 기억하는 행위에 대해 전체가 아닌 극히 일부 뉴런에서 이 정보를 변환해 보관하고 있는 상태라고 주장했다. 신경세포인 뉴런들이 자극을 받아 동시에 활성화되면 그 사이 통로인 시 냅스의 연결이 강화되고 특정 시냅스에서 장기 강화LTP, long-term potentiation 현상이 나타난다는 메시지였다. 수십 년간 장기 기억은 인공지능 학계에서 큰 숙제였다. 자 연어 처리, 음악 작성, 컴퓨터 비전과 같은 시간차가 필요한 분 야에서는 반드시 인공지능이 장기적으로 기억할 수 있는 능력을 갖추고 있어야 했다. - 예를 들어 한국어를 영어로 번역할 때, 첫 번째 입력한 단 어는 곧바로 이어지는 영어 단어 순서에 영향을 준다. 만약 인 공지능 기억이 매우 짧다면 번역은 불가능하다. 이 문제를 해 결하기 위해 순방향 신경망인 피드포워드 네트워크FFNN, Feed- Forward Neural Network를 업그레이드해 층 내에서 서로 되먹임할 수 있도록 한 순환신경망이 개발되었다. 오늘날 원본과 유사하지만 독창적인 그림이나 문장을 생성 하는 이른바 생성형 인공지능 역시 피드포워드 네트워크를 학 습시키는 과정에서 발견되었다. 몬트리올대학교의 이언 굿펠 로lan Goodfellow 팀은 인공지능이 적대적 상황에 놓이면 보다 강력한 샘플을 생성한다는 사실을 알아냈다. 이를 위해서는 이미지 · 동영상 · 텍스트 사운드를 분류하는 머신러닝의 한 유형인 합성곱 신경망이 필요하다. 한 인공지능은 꾸준히 그림을 그려대고, 또 다른 인공지능은 그 결과값을 입력값으로 받아들여 이 그림이 진짜인지 가짜인지를 판별하는 식이다. 마치 특수 경찰관이 위조지폐범이 계속해서 그려댄 위조지폐를 식별하면 서 서로 실력을 겨루고 발전하는 과정과 흡사하다. 이른바 생 성형 대립신경망GAN, Generative Adversarial Network의 등장이다. 특히 GAN은 별도로 학습을 시킬 필요가 없는 비지도 학습 을 토대로 한다. GAN을 활용하면 우주 천체 이미지에서 잡음을 제거할 수 있고 인간의 감정적인 언어 표현까지 생성할 수 있다. 이언 굿펠로는 졸업 후 오픈AI, 구글 리서치, 애플 등을 누비며 GAN을 전파했다. GAN을 활용한 서비스들이 속속 등장했다. 미국의 대표 반 도체 기업인 엔비디아 NVIDIA에서 개발한 스타일GAN은 사실 적으로 사람 얼굴을 그리고 고해상도 이미지를 생성하며 패션 디자인에도 활용할 수 있다. 또 UC버클리에서 내놓은 사이클 GANCycleGAN은 다양한 이미지를 전환하는 데 성공했다. 말 사 진을 올리면 얼룩말로 전환되는 방식이다. 또 다른 UC버클리 팀이 만든 픽스투픽스pIx2Pix는 스케치 그림을 올리면 디지털 아트로 전환해준다. 오픈AI가 내놓은 달리 DALL-E 역시 GAN을 기반으로 이미지를 생성한다. 영어로 간단한 문장만 입력하면 원하는 그림을 얻어낼 수 있다. - 챗GPT의 핵심은 트랜스포머다. 이를 통해 시퀀스 투 시퀀 스sequence to Sequence를 수행할 수 있다. 여기서 시퀀스란 무엇 인가를 나열한다는 뜻으로, 문장, 이미지 등 모든 것이 될 수 있 다. 다만 자연어 처리에서는 문장이 곧 시퀀스라 할 수 있다. 즉 한 문장을 넣으면 다른 문장이 되어 나타나는 것이다. 번역이나 추론, 전망도 이를 통해 가능하다. 주가예측을 한다면 '미국 연방준비제도가 금리를 올렸다'라는 시퀀스가 미국 나스닥이 하락했다'라는 시퀀스로 변경되는 것을 뜻한다. 트랜스포머에는 정교함을 극대화하고자 셀프어텐션self attention이라는 기능이 포함돼 있다. 모델에는 인코더Encoder와 디 코더Decoder가 존재하는데, 인코더가 입력 시퀀스를 압축해 디 코더로 보내면 디코더는 목표로 한 시퀀스를 생성한다. 인코더 에 들어온 시퀀스를 압축하는 과정을 인코딩이라고 부르고 나 가는 것을 디코딩이라고 한다. 오염된 물이 정수기 필터를 지 나가는 것과 흡사하다. 번역 인공지능을 예로 들면 '나는 너를 사랑한다'라는 한 문장의 시퀀스가 인코더에 들어오면, 디코더는 I love you’라는 번역 문장의 시퀀스를 생성한다. 구글의 트랜스포머 모델에서는 인코더에 들어온 시퀀스가 셀프어텐션 레이어를 지나도록 하고 있다. 오픈AI의 트랜스포 머 모델에서는 디코더에 마스크드 셀프어텐션 레이어가 있다. 셀프어텐션은 말 그대로 '스스로 집중한다'는 뜻이다. 인간의 뇌를 생각해보자. 한 사람이 편의점 문을 열고 들어 와 "아...... 그, 저 말인데요. 저기 있는 우유 얼마인가요?" 하고 우물쭈물 묻는다면, 점원은 "아...... 그, 저 말인데요"보다는 "저기 우유 얼마인가요?"라는 문장 속 주요 단어를 재빠르게 파악할 수 있다. 우리 뇌는 이처럼 수많은 단어 속에서 핵심만 추리 는 능력이 있는 것이다. 마찬가지로 셀프어텐션 레이어는 가장 중요하고 관련 있는 정보를 집어낸다. 한 시퀀스가 입력되더라도 '하지만', '그러나', '결론적으로'와 같은 주요 토큰에 집중한다. 또 디코더로 나가 는 시퀀스에 있는 마스크드 셀프어텐션 레이어는 정교한 시퀀스를 형성하도록 돕는다. - 지금까지 인공신경망 모델은 문장이 길어질수록 문맥을 해석하는 것을 힘들어했다. 모든 단어를 일일이 훑어서 분석해야 했기 때문이다. 하지만 트랜스포머 모델은 셀프어텐션 레이어 를 통해 집중할 수 있다. 아무리 문장에 단어가 많더라도 필요 한 정보만 빠르게 이해하고 불필요한 단어를 내뱉지도 않는다. 챗GPT에 오타가 수두룩한 문장을 대충 입력해도, 사용자의 뜻 을 헤아려 군더더기 없이 답변하는 것은 바로 트랜스포머의 힘 이다.
- "인공 일반 지능이 개발되면, 자본주의가 무너질 수 있다. 인공지능이 스스로 수익을 창출하면 어떻게 배분할 것인가. 또 이런 인공지능은 누가 통제할 수 있을 것인가." (오픈AI 공동창업자 샘 올트먼) - 샘 올트먼은 왜 챗GPT를 공개했는가 샘 올트먼은 오픈AI 설립 이유를 사회 운동으로 설명했다. 그는 2023년 <포브스>와의 인터뷰에서 챗GPT를 무료로 외부 에 공개한 이유를 '오버톤 윈도overton Window' 효과를 위해서라고 언급하기도 했다.3 오버톤 윈도는 극단적 선택지 가운데 대중이 받아들일 수 있 는 정책과 사고의 범위를 말하는데, 외부 충격에 따라 수용 여 부가 달라진다. 1998년 외환위기를 계기로 국제통화기금IMF이 대규모 정리해고를 권고하자, 근로자들은 저항 없이 수용했다. 일반인들이 인공지능에 대한 경외심과 공포감을 가지라는 메 시지를 던지고자 기술을 공개했다는 것이다. 올트먼은 특히 인공지능이 고도로 발달할 경우 자본주의가 무너질 수 있다고 경고했다. 인공지능이 인간을 대신해 스스로 수익을 창출하는 세상이 온다면, 시장 경제의 근간인 사유재산 에 대한 권리를 더 이상 주장하기 힘들 것이라는 뜻이다. 그는 "자본주의를 사랑한다"면서도 "하지만 자본주의는 나쁜 시스템 중에서 가장 좋은 시스템이기 때문에, 현존하는 더 나은 방안 을 찾았으면 한다"라고 말을 이었다. - 오픈AI는 기존의 기업과는 다른 방식으로 만들어졌다. 올트 먼은 구체적으로 "인공 일반 지능은 (스스로 일해) 수익을 발생 시킬 텐데 이를 어떻게 배분해야 할지가 관건일 것"이라며 "이 런 인공지능을 누가 통제할 수 있으며, 이를 소유한 회사는 어 떤 지배구조(거버넌스)로 구성이 되어야 하는지 등 새로운 생각 이 필요하다"라고 말했다. 막대한 성능을 지닌 인공지능이 고장날 경우 특별한 조치가 필요할 수 있고, 이 때문에 특정 회사 가 이런 인공지능을 소유해서는 안된다는 말도 잊지 않았다. - 2018년 머스크는 오픈AI가 구글에 비해 뒤처져 있다고 주장 하면서 직접 CEO로 나서겠다고 밝혔다. 하지만 다른 공동창 업자들이 반대에 나섰고, 이후 머스크는 오픈AI를 떠나게 되었 다. 약속한 투자 계획 역시 중단했다. 추가 자금이 필요했던 오 AI는 오픈AI 유한투자 openAI LP라는 영리 자회사를 설립했다. 머스크가 빠진 자리는 마이크로소프트가 대신했다. 마이 크로소프트는 2019년 오픈AI에 초기 투자를 단행했고, 이후 2022년까지 총 100억 달러에 달하는 자금을 투자하며 그 대가 로 파트너십을 요구했다. 챗GPT의 업데이트 버전은 마이크로 소프트의 챗봇인 '빙'에 탑재되었고, 마이크로소프트는 구글이 장악한 검색 시장을 점점 확대 중이다. - 챗GPT는 코드 생성 기능을 장착한 업데이트 버전인 GPT- 3.5를 토대로 하는데, 2022년 1월 발표한 언어처리 모델인 인 스트럭트GPT의 장점을 결합한 융·복합 버전이다. 특히 수요 자의 트래픽이 몰리는 것에 따라 다른 버전을 적용하는 동적 모델인 것으로 알려졌다. 실리콘밸리에서는 GPT-3 스몰 또 는 GPT-3 XL이 동적으로 구동하는 것으로 추정하고 있다. 사 용자 수요가 몰리면 파라미터가 적은 버전이 등장하고, 수요가 없으면 큰 파라미터가 있는 버전이 구동되는 방식이다. 파라미터 수가 서버 안정성과 직접적인 관련은 적지만, 파라 미터 수가 늘면 실행에 상당한 컴퓨팅 리소스가 투입돼야 하는 문제점이 발생한다. 때문에 사람이 뜸한 한적한 시간에 사용하 면 매우 빠른 속도로 정확한 답변을 내놓는 데 반해, 사람이 몰 리는 시간대에 활용하면 성능이 저조한 것 같은 기분이 드는 이유 역시 챗GPT가 동적 버전이기 때문인 것으로 보인다. - 오픈AI는 현지 시각 2023년 3월 14일, 챗GPT의 골격인 초거대 인공지능 GPT를 GPT-4로 업데이트했다고 밝혔다. 이날 샘 올트먼 오픈AI CEO는 트위터를 통해 "GPT-4는 가장 뛰어 나고 정리가 잘 된 모델"이라고 강조했다. GPT-4는 현재 GPT의 근간이 되는 GPT-3.5의 업데이 트 버전으로 미국 모의 변호사시험에서 상위 10퍼센트, 미국 대학 입학 자격시험인 SAT 읽기와 수학에서 각각 상위 7퍼센 트와 11퍼센트의 성적을 기록했다. 추론 능력도 대폭 향상되었으며, 인공지능이 거짓말을 하는 이른바 '환각hallucination 현상' 역시 감소시켰다. 오픈AI는 “GPT-4가 허용되지 않은 콘텐츠 요청에 응답할 가능성이 82퍼 센트 줄었다"면서 "사실을 바탕으로 대답하는 비율도 GPT-3.5 보다 40퍼센트 정도 높아졌다”라고 설명했다. 가장 주목받는 것은 이미지를 올리면 텍스트로 인식하는 기 능이다. 이미지 속의 그림이나 글자를 인식해 대화를 주고받을 수 있다. 예를 들어 복잡한 의약품을 스마트폰 카메라로 촬영 해 업로드하고 해당 제품의 성분과 장단점을 물어볼 수 있다. 더 놀라운 점은 식재료 분석이다. 식재료 사진을 아무렇게나 촬영해 올리면, 챗GPT가 해당 식재료로 만들 수 있는 요리와 그 요리 조리법을 작성한다. 텍스트 분석 기능도 대폭 업데이트돼 GPT-4는 2만 5000단어 이상을 한 번에 분석한다. 오픈AI는 "URL을 입력하면 보다 긴 형식의 콘텐츠를 생성할 뿐 아니라, 보다 정교하게 분석할 수 있다"라고 설명했다. 하지만 GPT-4가 얼마나 많은 파라미 터를 가졌는지에 대해서는 함구했다. 파라미터란 인간의 뇌에 있는 시냅스와 같은 요소로 파라 미터가 많다는 것은 그만큼 연산 능력이 높아 복잡한 문제를 더 정교하게 처리할 수 있다는 것을 의미한다. GPT-3.5는 1750억 개의 파라미터를 갖고 있다. 오픈AI는 챗GPT 무료 버 전은 GPT-3.5, 유료 버전인 '플러스'는 GPT-4에 연동했다고 밝혔다. 이러한 발전은 샘 올트먼 오픈AI CEO가 강조한 인간을 대 신하고 스스로 학습하는 인공 일반 지능에 다소나마 근접하는 양상이다. 인공 일반 지능을 장착한 챗GPT는 파라미터 수가 100조개에 달해, 인간 시냅스 100조 개에 버금가는 능력을 지 닐 것이라는 기대를 받고 있다. 오픈AI의 공동창업자 샘 올트 먼은 2022년 9월 한 팟캐스트에 출연해 가까운 미래에는 멀티 모달 Multi Modal 이 장착된 인공지능이 출현할 것으로 전망했다. - 챗GPT는 인간의 언어인 자연어를 이해하고 분석해 코드를 생성한다. 챗GPT의 근간인 초거대 인공지능 GPT-3.5에 코드 를 생성해 주는 'code-davinci-002'라는 기능이 추가됐기 때문 이다. GPT-3.5는 159 기가바이트 분량의 코드를 학습한 코덱 스Codex를 연동하고 있어 다양한 코드 생성이 가능하다. 일정 부분 코딩에 대한 이해와 논리, 그리고 자신이 무엇을 원하는 지 정확히 아는 사용자라면 원하는 코드를 생성할 수 있다. 책 GPT가 소프트웨어 업계의 게임체인저로 불리는 이유다. 이런 챗GPT가 파고들 영역은 전방위적이다. - 지금껏 프로그래머들은 프론트엔드, 백엔드, 모바일 개발, 머 신러닝, 게임 개발 등 한 분야에 특화되어 있었다. 전체를 총괄 하는 풀스택 개발자가 없는 것은 아니지만 극히 드물다. 하지 만 챗GPT는 이를 모두 소화할 수 있다. 챗GPT로 다룰 수 있 는 프로그램 언어는 약 12종(HTML, CSS, 자바스크립트 JavaScript, 파이썬 Python, 루비 Ruby, Node.js, 텐서플로우 TensorFlow, 파이토치PyTorch, 판다스Pandas, 매트플롯립 Matplotlib, 유니티 Unity, 언리얼 엔진Unreal Engine)으로, 웬만한 프로그래머보다 더 많은 일을 할 수 있다. - 테슬라의 인공지능 담당자에서 오픈AI로 자리를 옮긴 안드레이 카르파티 Andrej Karpathy 는 2023년 1월 트위터를 통해 "오늘 날 가장 인기 있는 새로운 프로그램은 영어"라고 강조했다. 그 만큼 프롬프트 엔지니어의 중요성이 날로 커지고 있다는 메시 지다. 일부 프롬프트 엔지니어는 자신이 개발한 프롬프트를 프롬 프트베이스promptBase 같은 사이트에서 판매하기도 한다. 프롬 프트베이스에 따르면, 2021년 이후 현재까지 2만 5000명이 프 롬프트를 판매했다. 예를 들어 이미지 생성 인공지능인 미드저 니Midjourney를 통해 정확히 원하는 그림을 생성해내는 프롬프트 는 단어 50개로 구성이 돼 있는데 약 1.99달러에 판매된다. 그 만큼 수요가 크다는 방증이다. 또한 프롬프트 히어로PromptHero, 프롬피티스트promptist와 같은 프롬프트 안내 및 교환 사이트도 등장하고 있다. - 물론 이 새로운 직업에 대한 부정적인 의견도 존재한다. 워 싱턴대학교의 셰인 스타이너트트렐켈드Shane Steinert-Threlkeld 교수 는 프롬프트 엔지니어링에 대해 "프롬프트 엔지니어링은 과학 이 아니다”라고 주장하면서 "곰을 여러 방법으로 찔러 보고 어 떻게 그들이 포효하는지 분석하는 것과 무엇이 다른가?" 지적 하기도 했다. 그러나 대다수 전문가는 오늘날 모든 것이 자연 어로 가능해지면서, 프롬프트를 제대로 활용할 수 있는 사람에 대한 수요가 갈수록 늘어날 것으로 보고 있다.
- 인공지능을 활용한 투자가 늘어나면서 인공지능을 활용해 이를 감시하는 '레그테크RegTech'마저 등장하고 있다. 레그 테크는 규제Regulation와 기술 Technology의 합성어로 금융 서비스 의 문제를 해결하기 위한 혁신적 기술을 뜻한다. 일본 금융청은 2017년 이 같은 중기 활동 방침을 발표했다. 수많은 사람 이 인공지능을 활용해 매매하면서 주가가 요동치고, 레이어링 Layering 방식으로 일반인들이 피해를 보기 때문이다. 레이어링은 알고리즘이 매도 주문을 순식간에 쏟아내 주가 를 하락시킨 뒤 저점에서 다시 주식을 매집하는 행위를 가리 킨다. 사람이 클릭하기도 전에 알고리즘이 움직여 기존의 규제방식으로는 이러한 패턴을 찾아내는 것이 불가능하다. 때문에 앞으로는 금융감독기관이 인공지능을 활용해 문제점을 포착하는 날이 머지않아 도래할 것으로 보인다. - 오늘날 인공지능은 금융 산업 전반을 혁신하고 있는 강한 무기다. 개인 금융 서비스, 신용 평가 및 대출, 시장 동향 분석 및 예측, 로보틱 프로세스 자동화RPA, 금융 규제 및 이상거래 탐 지 등에 사용이 가능하다. 딜로이트컨설팅의 김석태 이사는 "인공지능 활용이 확대되면서 금융업의 경쟁 구도가 재편될 것 으로 보인다"면서 "앞으로 직원과 인공지능의 협업 역량이 새로운 경쟁력이 될 것 같다"고 설명했다.
- 전 세계에서 가장 많은 전기차를 팔고 있는 테슬라는 GPT를 기반으로 자율주행 기능인 오토파일럿의 성능 업그레이드 를 시도하고 있다. 24 테슬라 차량에는 수많은 반도체가 탑재되 는데 그 핵심은 트립TRIP 칩이다. 트립 칩은 자율주행에 필요한 복잡한 계산을 빠르고 효율적으로 처리한다. 트립 칩을 사용하 면 서버에 있는 GPU와 연동이 필요 없다. GPU와 소통하는 시 간을 줄여 인공지능 처리 속도를 높일 수 있기 때문이다. 테슬 라 오토파일럿은 트립 칩을 토대로 통신하면서 오류를 실시간 으로 감지하고 차량 이상을 파악한다. 인공지능이 다양한 운전 변수를 학습했기 때문에 가능하다. 문제는 효율이다. 이러한 학습 과정에는 소프트웨어 조정 방향을 사람이 알려주는 이른바 '휴리스틱neuristic 프로세스'가 사 용된다. 하지만 인간의 개입은 효과적이지 않아 GPT는 그 대 안으로 꼽힌다. GPT는 자연어를 생성하지만, 이미지나 동영상 픽셀 위치에 대한 공간 정보를 제공한다. 이를 자율주행에 접 목하면 휴리스틱을 크게 개선할 수 있다. 테크 유튜브 채널인 '닥터노우잇올Dr.Know It All'을 운영하는 존 깁스John Gibbs 조지아대 학교 교수는 머스크와 대화 직후 "테슬라가 트립 칩에 GPT를 사용하려고 한 것은 매우 인상적"이라면서 "이것이 만약 성공 적으로 구현이 된다면 자율주행 문제가 더 빨리 해결될 수 있 다"라고 설명했다.
- 생성형 인공지능이 자유자재로 문장을 생성하면서 산업의 전체 판도가 흔들리고 있다. 오픈AI 출신으로 또 다른 생성형 인공지능 스타트업인 앤스로픽(구글이 2023년 2월 4억 달러를 투 자했다.)을 공동창업한 크리스토퍼 올라 Christopher Olah는 트위터 에서 이 같은 힘을 "소프트웨어 3.0'이라고 불렀다. 챗GPT의 근간이 되는 초거대 인공지능 GPT에 메타 학습Meta Learning을 접목하는 방법을 연구했고, 이를 기반으로 프롬프트 프로그래 밍을 했다는 설명이다. '메타 학습'이란 인공지능이 경험을 통해 스스로 학습 프로 세스를 개선하는 학습법이다. GPT-3.5는 소량의 데이터로 기 계가 학습하는 퓨샷러닝으로 다양한 상황에서 대응이 가능했 다. 또 프롬프트 프로그래밍을 통해 사용자의 의도를 정확히 파악할 수 있도록 했다.
- CRM의 양대 산맥은 마이크로소프트와 세일즈포스Salesforce 다. 특히 세일즈포스는 기업용 소프트웨어 업계의 애플로 불린 다. 수많은 외부 소프트웨어를 구독 플랫폼처럼 운영하기 때 문이다. 세일즈포스는 이미 2017년에 아인슈타인 Einstein이라는 CRM을 선보이면서 인공지능을 전면에 내세웠다. 하지만 챗GPT 개발사인 오픈AI에 투자하고 파트너십을 맺 은 마이크로소프트가 움직였다. 마이크로소프트는 2023년 3월 '다이내믹스 365 코파일럿'이라는 시범 서비스를 선보였는데, 인공지능이 고객 문의에 대해 응대하고, 이메일 답변을 작성하 며, 마케터가 목표로 삼을 고객을 분류해내는 기능을 담았다. 앞서 사티아 나델라Satya Nadella 마이크로소프트 CEO는 자사의 모든 제품 라인업을 오픈AI의 인공지능 도구를 활용해 재정비 할 것이라고 밝힌 바 있는데 이를 곧바로 시연한 것이다. 업계 1위인 세일즈포스 역시 오픈AI 챗GPT를 접목한 아 인슈타인GPTEinstein GPT라는 서비스를 선보이며 맞대응에 나 섰다.22 아인슈타인은 프롬프트에 명령어를 입력하면 문장 요 약, 개인 맞춤형 이메일 발송, 마케팅용 코드 등을 생성한다. 또 기업이 광고 캠페인에 사용할 수 있도록 이미지도 만들어낼 수 있다. 차별점은 공개된 정보나 세일즈포스에 있는 각종 데이터를 불러낼 수 있으며, 각 기업이 자체 데이터를 이용해 인공지능 을 훈련시킬 수 있다는 점이다. 기업이 자체 인공지능을 구축 할 수 있는 것이다. 아울러 생성형 인공지능이 거짓 정보를 생 성하는 환각 현상을 방지하고자 인공지능이 생성한 답변을 이 용자가 사용하기 전에 확인하는 절차를 도입했다.
- 언어를 이미지로 생성하는 '스테이블 디퓨전' 스테이블 디퓨전은 인간의 문장을 토대로 이미지를 만들어 내는 딥러닝 인공지능 모델로, 자연어인 텍스트를 입력하면 이 미지를 생성한다. 자연어처리 분야에 GPT를 중심으로 한 트랜스포머 모델 기반 인공지능이 있다면, 이미지 분야에선 스 테이블 디퓨전 모델이 중심이다. 그동안 수많은 이미지 생성 인공지능이 등장했지만, '와우 모먼트'를 달성하는 데에는 실패 했다. 하지만 스테이블 디퓨전은 2022년 급부상해 많은 이의 감탄을 불러왔다. 인공지능의 프로세스는 크게 데이터 트레이닝 딥러닝→ 잠재공간latent space 배치→ 생성(디퓨전diffusion)→ 결과인 아웃풋 으로 이뤄진다. 이미지 생성 딥러닝은 이미지와 그 이미지에 대한 설명인 캡션caption 짝을 대조해보는 방식으로 학습이 이뤄 진다. 컴퓨터는 이미지에 대한 세세한 화소점인 픽셀을 숫자로 인식하고 그 패턴 값을 분석하고 이를 설명 문장과 대조하며 학습한다. 이렇게 학습된 생성형 인공지능은 문장이 입력되면 가상공간에 그림을 배치하는데 이를 잠재공간 배치라고 한다. 예를 들어 엑스축이 빨간색, 와이축이 원형이라고 한다면, 맨 상단 우측에 빨간 공이, 맨 하단 좌측에 노란 바나나가 배치될 것이 다. 문제는 여기서 발생한다. 복잡한 문장을 입력하면 변수가 급증하기 때문에 인공지능이 잠재공간에 이미지를 집어넣는 데 착오를 일으킬 수 있다. 가끔 얼굴이 두 개 달린 인물 이미 지가 그려지는 이유다. 하지만 스테이블 디퓨전은 인간이 인식할 수 있는 공간을 넘 어 매우 방대한 공간을 처리할 수 있는 능력을 갖고 있다. 그 비결은 역방향 학습이다. 디퓨전이란 영어로 '퍼짐'이라는 뜻으로 "안정적 확산 모델"이라고도 부른다. 투명한 물에 빨간 잉크 한 방울을 떨어뜨리는 모습을 상상하면 이해가 쉽다. 잉크 방 울은 서서히 퍼져 특정 시간에 도달하면 물 전체를 빨갛게 물 들인다. 평형 상태에 도달한 것이다. 실제 세계에선 한번 평형이 이뤄지면 원점으로 돌아올 수 없다. 하지만 스테이블 디퓨전은 안정적으로 확산된 상태를 다 시 원점으로 돌리는 능력이 있다. 이는 매우 잘 그린 초상화를 백지가 될 때까지 손으로 문질러 없앤 뒤, 지운 그림을 생각하 면서 다시 그리는 것과 같은 이치다. 인공지능은 이 과정을 무 한으로 반복한다. 학습할 때에는 그림을 지워 없애는 방식을 쓰지만, 실제 작업을 수행할 때에는 역방향으로 움직인다. 스테이블 디퓨전은 독일 뮌헨대학교 연구진이 스타트업 스 태빌리티AIstability Al의 지원을 받아 2022년 8월에 개발한 인공 지능이다. 이 모델은 인공지능 학습에만 60만 달러에 달하는 거액이 들어갔지만 스태빌리티AI와 뮌헨대학교는 이를 누구나 사용할 수 있도록 오픈소스로 공개했다. 생성형 인공지능 서비스로는 이미 미드저니, 오픈AI 달리, 드림 바이 웜보Dream by WOMBO 등이 이미 존재하고 있었지만, 스 테이블 디퓨전이 오픈소스로 공개되면서 수많은 기업이 이 모델을 주로 이용하고 있다.
- 넷스케이프를 창업한 마크 앤드리슨이 이끄는 실리콘밸리 벤처캐피털인 앤드리슨호로위츠Andreessen Horowitz는 생성형 인공 지능의 산업 영역을 크게 세 가지로 분류했다. 인공지능 칩과 그 칩을 활용해 컴퓨팅 파워를 제공하는 인프라 산업, 이 컴퓨 팅 파워를 활용해 생성형 인공지능을 직접 개발하는 파운데이 션 모델, 다시 이 파운데이션 모델을 활용해 B2B(기업 간 기업) 나 B2C(기업 간 소비자)용으로 앱과 웹을 제공하는 서비스다. 여기에서 어떤 수익 구조를 갖느냐에 따라 다시 세분화된다. 맷 본스틴Matt Bornstein 파트너는 “현재까지는 인프라 공급 회 사가 시장의 승자일 가능성이 크다"면서 "앱을 제공하는 회사 는 매출이 급속도로 늘고 있지만 아직 수익이 충분하지 않고, 인공지능 모델을 제공하는 업체는 수익 구조를 만들지 못한 상 태"라고 진단했다. 산업이 꿈틀대는 초기 단계이기 때문에 미 래를 섣불리 예단하기 힘들다는 설명이다. - 오픈소스 생태계는 독특한 비즈니스 모델을 만들어냈다. 바로 모델 허브 비즈니스다. 스테이블 디퓨전이 오픈소스로 제공 되더라도 일반 기업이 이를 활용해 서비스를 개발하는 것은 쉬 운 일이 아니다. 하지만 허깅페이스와 같은 모델 허브를 활용 하면 비교적 쉽게 구축할 수 있다. 허깅페이스는 다양한 모델과 학습 스크립트를 모아 놓은 라 이브러리 서비스를 제공하고 있다. 레고를 생각하면 이해가 쉽 다. 오픈소스 모델이 개별 레고 블록이라고 한다면, 허깅페이스 는 이를 색상과 모양별로 모아둔 상자라고 할 수 있다. - 빙 챗봇은 챗GPT에서 한 단계 업데이트됐다. 챗GPT가 2021년 이후 사실에 대해선 알려주지 않지만, 빙 챗봇은 검색 사이트를 훑어 출처까지 인용해 요약·정리해준다. 예를 들어 2023년 가장 인기 있는 스마트폰이 무엇인지 묻는다면, 삼성전 자와 아이폰의 최신 정보를 나열한다. 여기에 GPT의 기본 기능마저 담고 있다. 더 나아가 마이크로소프트는 빙 챗봇에 오픈AI의 이미지 생 성 인공지능인 달리를 탑재했다. '빙 이미지 크리에이터'라고 명명된 이 기능은 이미지를 생성해달라고 요청하면, 오픈AI의 달리가 곧바로 그림을 그려주는 방식이다. 또 인공지능이 생성한 인포그래픽과 차트 등을 사용할 수 있도록 비주얼 스토리와 지식 카드와 같은 새로운 기능마저 추가했다. 이처럼 마이크로소프트가 GPT를 탑재한 이유는 구글을 단 숨에 추격하기 위해서다. 다만 복병도 있다. 빙 챗봇은 전 세계 100만 명을 상대로 우선 공개됐다. 모든 사용자에게 공개할 경 우서버 비용을 감당할 수 없어서다. 시장이 확대되는 모습을 보면서 서서히 대상을 늘리겠다는 전략이지만, 추격에 상당한 시일이 소요될 것이라는 점을 시인한 것이다. 빙 챗봇 사용 대기리스트에 이름을 올리기 위해서는 마이크 로소프트의 지시를 따라야 한다. 윈도우를 업데이트해 검색엔 진 기본값을 구글에서 빙으로 바꿔야 하며, 웹브라우저인 엣지를 업데이트해야 한다. 시장에서는 마이크로소프트의 이러한 전략이 당장 통했다는 평가가 나왔다. 빙 챗봇을 도입한 이후 빙의 일간 활성 사용자DAU는 1억 명을 돌파했다. 2009년 빙이 출시한 이래 처음이었다. 특히 빙 챗봇 이용자의 3분의 1은 빙 을 처음 사용하는 신규 사용자였다. 마이크로소프트가 막대한 자본을 투자해 빙 챗봇을 개발한 이유는 디지털 광고 때문이다. 검색 광고 시장에서 점유율이 1퍼센트 상승할 때마다 디지털 광고 수익은 약 20억 달러가 증가하는 것으로 알려졌다. 마이크로소프트는 이에 그치지 않고 웹브라우저 시장 저변을 넓혀나가고 있다. 검색엔진이 웹사이트라면 웹브라우저는 이를 구동하는 프로 그램이다. 웹브라우저 시장을 장악하면, 이용자의 인터넷 이용 데이터를 손쉽게 얻을 수 있을 뿐 아니라 자사의 검색엔진으로 유도하기가 수월하다. 이 시장은 한때 마이크로소프트의 인터 넷 익스플로러가 대부분을 차지했지만, 현재는 구글의 크롬이 60퍼센트를 차지하고 있다. 엣지의 점유율은 고작 10퍼센트 남 짓이다.
- 메타의 초거대 인공지능 '라마'는 파라미터 수가 최대 650억개다. 이는 GPT-3.5 1750억 개, 구글 람다 1370억 개에 비해 적은 숫자지만, 발 빠른 대응이 아닐 수 없다. 현재 라마 개발은 메타의 부사장 겸 수석 AI 과학자인 얀 르쿤 Yann LeCun이 이끌고 있다. 메타 역시 구글처럼 모델을 섣불리 공개하지는 않고 있다. 2022년 11월 챗GPT에 맞불을 놓고자 인공지능 챗봇 갤럭 티카 Galactica를 공개한 뒤 곤욕을 치른 학습 효과가 있기 때문 이다. 10 당시 갤럭티카는 가짜 정보 생성은 물론 혐오적 표현 을 사용해 논란을 불러일으켰다. 현재는 연구자들을 대상으로만 라마의 사용 신청을 받고 있다. 연구용으로 고안된 만큼 일 반 사용자에겐 공개하지 않는 것이다. 메타의 라마가 오픈AI의 GPT나 구글의 람다에 비해 우수한 분야는 상식 추론으로 꼽 힌다. 인공지능은 학습을 하지 않은 데이터를 물어볼 경우 논 리에 맞지 않는 가짜 정보를 생성하기 쉬운데, 라마는 상식 추 론 능력이 이들보다 뛰어나다는 평가다. 투자자들이 주목하는 것은 메타가 생성형 인공지능 산업에 서 오픈소스 비즈니스 모델을 채택했다는 점이다. 후발 주자로 서 생태계를 더욱 빠르게 장악하고자 무료 공개 전략을 수립한 것이다. 저커버그는 "언어 모델의 발전에도 이를 학습시키고 실행하는 데 필요한 자원의 한계로 완전한 연구는 여전히 제한 적"이라며 "이런 제한된 접근은 인공지능 모델의 편향성, 유해 성, 잘못된 정보 생성 등의 문제를 완화하려는 연구자들의 노 력을 방해한다"고 설명했다. 더 많은 이가 메타의 인공지능을 활용할 수 있도록 하겠다는 메시지다. 메타가 라마의 개발을 완료하면 소셜미디어 역시 크게 탈바 꿈할 것으로 보인다. 저커버그는 앞서 "생성형 인공지능에 초 점을 맞춘 최상위 제품 그룹을 만들고 있다"고 강조한 바 있다. 생성형 인공지능을 연구하는 팀을 단일 팀으로 구성하고 모든 제품을 인공지능 기반으로 업데이트하겠다는 구상이다. 페이스북, 인스타그램, 왓츠앱 WhatsApp 등에 라마 기반 챗봇이 탑재 될 가능성을 시사하는 대목이다.
- 티스타에 따르면, CRM 시장에서 세일즈포스 점유율은 23.8퍼센트로 SAP 5.4퍼센트, 마이크로소프트 5.3퍼센트, 오라클 5.1 퍼센트, 어도비 3.8퍼센트보다 압도적으로 높다. 이런 가운데 마이크로소프트가 CRM 서비스에 챗GPT를 접목하면서 비상 이 걸렸고, 세일즈포스는 정공법을 택했다. 오픈AI의 GPT를 연동해 그 이상의 서비스를 구현하는 전략이다. 새로운 인공지 능 서비스 명칭은 '아인슈타인GPT다. 아인슈타인GPT는 프롬프트에 문장을 입력하면 요약, 개인 이메일, 마케팅 코드 등을 생성한다. 또 기업이 캠페인에 사용 할 수 있도록 이미지도 만들어낼 수 있다. 특히 공공 정보나 세일즈포스 등에서 각종 데이터를 불러낼 수 있으며, 각 기업이 자체 데이터를 이용해 자사만의 아인슈타인GPT를 훈련할 수 있도록 했다. 앞서 인수한 메신저형 협업 툴 슬랙slack을 위한 챗GPT 앱도 출시한다. 챗봇은 슬랙에서 대화를 요약하고 답장 을 쓰고 사용자가 주제를 조사하도록 지원한다. 마이크로소프트와의 차별화도 잊지 않았다. 빙 챗봇이 거짓 정보를 생성하는 이른바 '환각 현상'을 만드는 것을 보고, 아인 슈타인GPT는 인공지능이 생성한 답변을 이용자가 사용하기 전에 확인하는 절차를 추가하기로 했다. 클라라 쉬Clara Shin 세일즈포스 총괄매니저는 “이번 발표는 기업의 수요에 부응한 것"이라며 "기업들이 고객과 소통 방식을 재정립하는 데 생성형 AI가 도움을 줄 것"이라고 설명했다.
- 카툰피플 Cartoon People의 창업자인 사이드 라샤드syed Rashad는 "사진이 처음 발명되었을 때 신문, 광고, 디자인 회사 등에서 일 했던 수많은 초상화 화가가 직장을 잃었다"면서 "사진이 예술 인지 여부에 대한 논쟁은 나중에 다루어야 할 문제이고, 당면 한 과제는 인간이 기술을 억제할 수 없다는 데 있다"라고 말했 다. 사진기가 등장하면서 사진사가 필요했듯, 인공지능을 활용 해 보다 더 창의적으로 그림을 자유자재로 그릴 수 있는 사람 만이 생존할 수 있다는 메시지다.
- 일론 머스크가 떠난 뒤 오픈AI는 비영리 조직과는 다소 거리가 있는 행보를 보이고 있다. 2019년 MS는 오픈AI에 10억 달러를 투자하였고, 2020년에는 마이크로소프트 이그나이트 Mircrosoft Ignite" 2020에서 오픈AI의 라이선스 독점 파트너십 체결을 발표했다. 이 는 오픈AI가 MS의 슈퍼컴퓨팅을 활용해 기술개발을 촉진할 수 있 는 계기가 되었다. 이후, 오픈AI는 1750억개 이상의 매개 변수를 가진 GPT-3를 출시하며 개선 및 확장을 이어가고 있다. 한편 MS 는 오픈AI가 개발한 챗GPT를 다양한 자사 제품에 결합하고자 한 다. 이는 챗GPT'를 이용해 수익을 다각화하고 시장 지배력을 높이 려는 시도다. - 2022년 12월 1일 오픈AI는 GPT를 공식 출시하였으며 현재 PC버전을 무료로 제공하고 있다. 인간과 유사한 텍스트를 생성하 도록 설계된 GPT 모델과 챗GPT의 등장은 AI 분야에서 중요한 이 정표가 되고 있다. MS는 오픈AI에 앞으로 약 100억 달러를 투자해 지분의 49퍼센트를 확보할 계획을 가지고 있다. 일론 머스크의 손 을 떠난 챗GPT 그리고 오픈AI가 앞으로 어떤 비즈니스 모델을 구 축해 나갈 것인지 기대해 본다. - 특히 2013년 신경망 모델을 통해 방대한 텍스트 말뭉치에서 단어와 단어 사이의 패턴을 학습하는 단어 임베딩 모델 워드투벡터 Word2vec가 발표된 뒤 딥러닝 분야에서 자연어 처 리에 대한 연구가 더 활발히 이루어지고 있다. 구글의 버트BERT나 오픈AI의 GPT가 대표적인 딥러닝 기반의 언어 모델이다. 언어 모델이란 단어의 다음에 올 단어를 예측하여 문장을 완성 하는 자연어 처리 모델로, 쉽게 표현하면 마치 네이버나 구글, 혹은 스마트폰에서 제공하는 자동 완성 기능과 유사하다. “하루 종일 게 임만 했더니 역시나 시험점수가 [빈칸]"이라는 문장이 있다고 가정 하자. 인간은 빈칸에 올 단어가 '떨어졌다'라는 걸 쉽게 맞힐 수 있 다. 우리는 우리가 쌓아온 경험과 지식에 기반해서 빈칸에 올 단어 중 확률이 가장 높은 것이 '떨어졌다'라고 판단하는 것이다. - 언어 모델이 빈칸에 올 단어를 예측하는 방식도 인간과 비슷하 다. 앞에 있는 단어들을 기반으로 빈칸에 올 수 있는 단어들의 후보 들 중 빈칸에 올 확률이 가장 높은 단어를 선택하는 것이다. 컴퓨터 는 다음 단어를 맞히기 위해 경향성을 학습하는데 그 방식이 버트 와 GPT가 다른 지점이다. 버트는 '마스크 언어 모델'이라는 방식을 활용해 문장 '중간'에 위치한 빈칸을 맞추는 방식인 반면, GPT는 '다음' 단어를 맞추는 모델을 활용한다. 버트는 양방향 모델로 빈칸 의 앞과 뒤의 문맥을 모두 고려할 수 있기 때문에 문장의 전체적인 의미를 추출하는데 강점을 갖는 반면, GPT는 앞에서부터 순차적 으로 학습하며 다음에 나올 단어의 확률을 계산하기 때문에 문장 생성에 강점을 갖는다. GPT-3.5가 적용된 GPT는 GPT 기반으 로 텍스트 분류, 텍스트 생성, 요약 등 다양한 자연어 처리 작업을 수행하는데, 그 중에서도 특히 텍스트 생성에 강점을 보이는 것도 이런 언어 모델의 특징 때문이다. - 예를 들어 개와 고양이를 분류하는 경우를 생각해보자. 기존의 머신러닝 모델을 사용할 경우, 사람이 사진 속 동물의 귀 모양, 얼 굴 모양, 몸의 구조 등의 특징을 선정 및 추출하고, 이를 라벨링하 여 입력한다. 이후 모델은 주어진 라벨을 기준으로 제시된 사진이 각각 개와 고양이 중 어느 쪽에 속하는지 판단하도록 학습한다. 하 지만 딥러닝 알고리즘의 경우 특징을 선정하는 것까지 인공신경망 을 통해 학습하기 때문에 사람이 특징을 추출하는 과정을 생략할 수 있다. 그저 잘 분류된 개와 고양이 사진을 제공해주기만 하면 딥 러닝 알고리즘이 혼자서 사진에 포함된 특성을 계산하고 그 속에 서 패턴을 찾는다. 그리고 개 사진이 들어오면 미리 찾아둔 패턴과 비슷한 특징을 갖고 있는 것이 개라는 사실을 판단하여 답을 내리 게 된다. - 딥러닝의 성능 차이를 결정하는 것은 파라미터의 수다. 파라미 터는 딥러닝을 통해 학습한 모델이 저장되는 곳으로, 인간의 신경 세포에서 정보를 전달하는 시냅스와 유사한 역할을 한다. 딥러닝 모델을 만드는 기업들은 더 많은 파라미터로 구성된 모델을 확보 하기 위해 고군분투하고 있다. 학습 데이터가 많을수록 그리고 파 라미터가 많을수록 실제값과 AI의 출력값 사이의 오차가 줄어들고 정답에 근접하기 때문이다. - GPT 모델은 딥러닝을 통한 사전 학습으로 인간처럼 추론하는 능력을 가진 생성형 AI 챗봇의 엔진이 되었지만 거짓 정보를 생성 하거나 유해한 콘텐츠를 생산하는 등의 한계를 지니고 있다. AI 모 델은 일반적으로 사전 학습 후 특정 태스크에 대한 성능을 개선하기 위해 '미세 조정fine tuning'이 이루어진다. GPT-3를 기반으로 만들 어진 인스트럭트 GPT 역시 이런 한계를 극복하고 더 안전한 모델을 만들기 위해 인간 피드백 기반 강화 학습RLHF: Reinforcement Learning with Human Feedback이라는 미세 조정 방법이 적용되었다. 오픈AI는 이 과정을 통해 과격한 표현이나 윤리적 문제들이 발생할 위험을 해소해 나간다. 비슷하게 챗GPT 역시 GPT-3.5에 인간 피드백 기 반 강화 학습 기술을 적용해 만들어졌다. - 인간 피드백 기반 강화 학습은 3단계에 걸쳐 진행된다. 첫 번째 단계에서는 특정 프롬프트에 대해서 사람이 직접 이상적인 설명을 작성한다. 예를 들어 "여섯 살 아이에게 달 착륙을 설명하라”는 프 롬프트에 대해 인간 라벨러가 정답 예시에 가까운 설명을 직접 작 성하는 것이다. 이렇게 만들어진 데이터는 지도 학습의 방법을 통 해 GPT-3와 GPT-3.5를 미세 조정하는 데 사용된다. 두 번째 단계 에서는 여러 개의 아웃풋에 대해 인간 라벨러가 어떤 아웃풋이 좋고 나쁜지 순위를 매긴다. GPT-3와 GPT-3.5의 리워드 모델은 인간이 매긴 순위 데이터를 학습한다. 마지막 단계에서는 확보 답변들 중에서 리워드 수치가 가장 높은 답변을 선택하는 방향으로 GPT 학습 정책을 업데이트한다. 인간 피드백 기반 강화 학습을 적용한 모델들은 기존보다 사용 자 의도에 더 적합한 답변을 생성했다. 안정성에 있어서도 유해한 답변을 더 적게 생성했고, 좀 더 사실에 기반한 응답을 생성하는 것 을 확인할 수 있었다. 인스트럭트GPT와 GPT-3가 생성한 응답을 비교해 보면, GPT-3는 질문에 이어질 만한 텍스트를 단순 생성하 여 반복적인 표현을 사용했지만 인스트럭트GPT는 더 사용자 질문 에 적합한 응답을 생성했다. - 구글 검색은 인터넷에서 정보를 검색하고 색인하는 도구인 반면, 챗GPT는 학 습된 정보를 바탕으로 사람과 유사한 텍스트를 생성하는 강력한 도구이다. 정확도 측면에서는 일반적으로 방대하고 다양한 데이터 소스에 의존하며 관련된 정보들을 색인하고 순위를 매겨서 사용자 에게 제공하는 구글 검색이 더 나을 수 있다. 반면 챗GPT는 인간 과 유사한 텍스트를 생성함은 물론, 학습된 데이터를 바탕으로 자 체적으로 도출한 결론을 제공할 수 있다. 하지만 학습 데이터에 따 라 오류나 편견이 포함될 수 있고 언어를 생성하는 과정에서 거짓 된 정보를 마치 그럴싸한 사실처럼 제공할 수 있다는 단점이 존재 한다. 따라서 현재 상황에서 구글 검색은 일반적인 정보를 제공하고 정보형 질문에 답하는 데 더 적합하지만 챗GPT는 이야기나 시를 쓰거나 코드와 이메일을 작성하는 것과 같은 창의적인 과제에 더 적합하다고 볼 수 있다. 그리고 MS는 검색과 대화형 응답이라는 두 가지 도구를 통합하 였다. 챗GPT를 검색 서비스인 빙에 적용하여 대화형 검색 서비스 로 재탄생시킨 것이다. 사용자는 대화형 검색이라는 자연스럽고 직 관적인 경험을 통해 편리하게 자신이 원하는 정보를 찾을 수 있다. 뿐만 아니라 챗GPT는 학습된 대규모 데이터를 바탕으로 양질의 응답까지 생성한다. - 궁지에 몰린 구글, 바드 공개 한편 구글은 2023년 2월 8일 프랑스 파리에서 챗봇 바드Bard를 결합한 새로운 검색 시스템을 공개했다. MS가 새로운 AI 기반 검 색 엔진을 발표한 지 하루만에 나온 구글의 반격이다. 상당히 성급 해 보이기도 하는 이 대응에서는 구글의 다급함을 느낄 수 있는데, 구글의 검색 사업이 큰 타격을 받을 수도 있다는 위기감을 느끼고 있는 것으로 보인다. 사실 구글의 검색 엔진이 위협받는다는 것은 검색 사업뿐 아니라 이로 인해 광고 등의 기타 파생 비즈니스가 전 적으로 타격을 받을 수 있다는 것을 의미한다. 구글의 창업자 래리 페이지가 구글의 최종 종착지는 AI라고 이야기했으며 늘 'AI 퍼스트'를 외쳐 왔지만, 구글은 구글이라는 이름이 갖고 있는 무게감과 책임감 때문에 AI 알고리즘과 서비스 공개에는 다소 조심스러운 태도를 보여 왔다. 하지만 이번만큼은 숨 막히는 대응전을 펼치며 필사적으로 대응하고 있다. 바드는 구글의 언어 모델 람다LaMDA를 기반으로 하는 실험적인 대화형 AI 서비스로, 대규모 언어 모델과 웹의 정보를 기반으로 구 축되었다. 2023년 2월, 새로운 검색 시스템을 공개하는 자리에서 구글은 바드가 결합된 새로운 검색 엔진이 "완전히 새로운 방식으 로” 정보를 다룰 수 있게 해줄 것이라고 자신했다. 또한 “검색은 결코 해결된 문제가 아니며", "구글이 검색 시장에 몸을 담근지 25년이 다 되어가지만 검색은 여전히 구글의 가장 크고 혁신적인 도 전"이라고 강조했다. 완벽한 검색이 어려운 이유는 "사람들이 자연 스럽고 직관적으로 정보를 접하기를 기대하는 방식"과 "기술이 어 떻게 그러한 사람들의 경험을 강화할 수 있을지가 계속 변화하기 때문이다. 이러한 복잡하고도 어려운 검색이라는 영역에서 구글은 사람들이 자연스럽게 세상을 이해하는 방식을 반영함으로써, 마치 "우리의 마음처럼 작동하는 새로운 검색 경험"을 만들고 있다고 이 야기했다. - 구글의 모기업인 알파벳의 매출 50퍼센트 이상은 검색 광고에서 발생한다. 하지만 바드와 같은 챗봇이 검색 엔진에 붙게 될 경우, 기존의 비즈니스 모델이 흔들릴 수밖에 없다. 구글은 새로운 검색 서비스로 기존의 검색 서비스의 매출이 줄어드는 자기 시장 잠 식cannibalization을 우려하지 않을 수 없다. 카니발 효과라고도 불리 는 자기 잠식 효과는 기업이 새롭게 출시한 제품이 매출 증대를 일 으키는 것이 아니라 오히려 기존 주력 상품의 매출을 마이너스로 만드는 현상을 뜻한다. - 이처럼 '검색'이라는 행위에는 무수히 많은 인간의 니즈가 담겨 있으며 그 니즈를 충족하기 위한 최적의 방법은 모두 다르다. 어떤 검색에서 우리는 챗봇을 통한 직문직답을 원하지만 어떤 검색에서 는 좀 더 구체적인 정보와 출처를 원하기도 한다. 그리고 때로는 텍 스트보다 이미지가 더 효과적인 경우도 존재한다. 구글은 이미 당 신이 무엇을 원하는지 알고 있다. 그동안 쌓은 데이터와 분석 결과 를 통해 온라인에서 무언가를 검색하는 사용자의 마음을 파악하고 있으며 이를 어떻게 사용자 친화적으로 제공할 것인지에 대한 노 하우도 장착한 상태이다. MS는 데이터 측면에서 자신들의 이런 약점을 충분히 파악하고 있기 때문에 최대한 많은 사용자 데이터를 모으고자 아직 완벽하지 않은 제품을 발 빠르게 시장에 선보인 것이다. 검색 시장에서의 전쟁은 미국만의 일이 아니다. 중국 최대 검색 엔진인 바이두는 AI 챗봇 '어ERNIE Bot'의 내부 테스트를 2023 년 3월까지 마무리하고 곧 공식 출시하겠다고 발표했다. 어니봇은 한자로 '문심일언'으로 표기하며, ERNIE는 지식 통합을 통 한 향상된 표현Enhanced Representation Through Knowledge Integration을 의미한다. 바이두의 챗봇은 챗GPT와 비슷한 방식으로 웹 기반 서비스로 먼저 제공된 뒤, 추후 바이두 검색 엔진에 통합될 것으로 보인다. 생성형 AI 기반 챗봇이 결합된 검색 엔진은 기존의 검색 엔진을 당장 대체하기는 힘들 것이다. 두 가지 패러다임은 당분간 공존하 는 형태로 현실의 서비스에 적용될 것이다. 하지만 이 과정에서 새 로운 실험적인 인터페이스가 탄생할 수도 있다. 더 나은 검색 경험 을 제공하는 것을 넘어 이를 어떻게 새로운 비즈니스 모델로 만들 고수익을 창출할 것인가를 지켜보는 것도 중요한 관전 포인트다.
- 시드 투자는 스타트업이 사업 아이디어를 제품 프로토타입이나 베타 서비스로 구축하는 단계에서 이루어진다. 시드 단계의 초기 투 자자들은 비록 스타트업의 비즈니스 모델이 제대로 검증된 상태가 아니더라도, 팀의 역량과 기술, 성장 가능성을 보고 초기 투자를 감 행한다. 시리즈 A는 시드 투자를 받은 스타트업이 출시한 프로토타입이 나 베타 서비스가 금액은 작지만 일관된 매출이나 실적 지표를 달 성했을 때 주로 이루어진다. 엄청난 성과는 아니더라도 성장 가능 성이 입증된 수익 모델을 기반으로 투자를 유치한다. 성장 가능성 이 확실하다면 서비스 지표만으로도 투자가 진행되지만, 대체로 수 익 모델에 대한 검증을 요구하는 것이 일반적이다. - 시리즈 B는 본격적인 성장을 앞둔 스타트업 회사를 빌드업 하는 단계에서 받는 투자다. 즉, 정식으로 출시한 서비스가 상당한 수의 안정적 사용자 기반을 확보한 뒤, 사업을 확장하는 단계에서 이루 어진다. 투자 금액은 보통 국내 IT 스타트업을 기준으로 50~150억 사이이며, 투자 유치 이후의 기업 가치는 약 250~750억 원 사이에 서 형성된다. 생존을 위한 전쟁을 끝내고 비즈니스 모델이 검증된 기업들은 시 리즈 C 투자를 고려하게 된다. 보통 해외 시장으로 진출하거나 새로 운 연관 사업을 추진하는 단계에서 이루어지며, 기업 공개나 인수합 병이 가능한 기업들이 그 대상이다. 이 단계에서는 수백억 원 이상 의 투자가 이루어지며 투자 이후의 기업 가치도 약 750~1500억원 사이다. 대부분의 스타트업이 시리즈 C에서 외부 투자 유치를 마무 리하지만 더 큰 성장을 향해 시리즈 D, E, F까지 이어지는 경우도 있다.
- 하이퍼클로바는 이미 네이버의 다양한 서비스에 활용되고 있다. 검색어 입력 시 오탈자를 자동으로 수정하고, 네이버 쇼핑에 서 상품의 소개 문구 작성을 가이드 하거나, 클로바노트를 통해 회 의록을 요약하는 등의 기능은 하이퍼클로바의 숨은 공 덕분이다. 또한 하이퍼클로바를 손쉽게 쓸 수 있는 응용 서비스도 출시되었 다. 노코드 툴인 '클로바 스튜디오'가 그 예이다. 클로바 스튜디오 는 스타트업이나 개인이 코딩 없이도 AI 서비스나 앱을 개발할 수 있는 서비스이다. 실제로 국내 카피라이팅 서비스인 뤼튼은 클로바 스튜디오를 기반으로 제작되었다. - 카카오브레인은 초거대 AI 모델 코GPTKoGPT를 오픈 API로 공개 했다. 코GPT는 한국어를 사전적, 문맥적으로 이해하고 사용자의 의도를 파악하여 문장을 생성하는 한국어 특화 언어 모델이다. 이 모델의 파라미터는 60억 개로 크기는 다른 모델들보다 비교적 작 은 편이다. 하지만 코GPT는 주어진 문장의 감정 분석, 질문에 대한 답변, 내용 요약 및 결론 예측, 다음 문장 작성 등 한국어와 관련된 언어 태스크에 강점을 보인다. 카카오브레인은 코GPT 모델의 크 기를 향후 100배 이상의 규모로 키울 예정이다. 또한 카카오브레인은 한국어 언어 모델 코GPT뿐 아니라 이미지 생성 모델 칼로의 API도 대중에게 무료로 공개했다. 이는 스태빌리 티AI와 비슷한 전략으로, 대중성을 경쟁력으로 삼고 있다. 이렇듯 카카오는 자체 개발한 혁신적 AI 모델을 API 형태로 지속적으로 공 개하고, 다양한 기업과의 협업 기회를 적극적으로 모색해 나가고 있다. 덕분에 개발자들은 코GPT를 활용해 앱을 개발하거나 서비 스의 성능을 높이는 데 활용할 수 있다. 가령 앱에서 키워드를 입력하면 문구를 자동 완성하거나 추천 문구를 보여주고 맞춤형 상품 추천 기능을 구현하는데도 이 모델을 사용할 수 있다. 또한 코드가 공개되어 있기 때문에 사용자가 풀고자 하는 문제에 맞게 모델을 파인 튜닝하는 것이 가능하다. 카카오브레인은 고객 서비스 플랫폼 및 광고 회사 등과 파트너십을 맺고 서비스 적용 범위를 넓혀 가고 있다. 카카오가 다른 언어 모델들과 차별되는 점 중에 하나는 코GPT 에 블록체인 기술을 적용할 로드맵을 가지고 있다는 점이다. 그렇 게 되면 코GPT의 학습을 지원하거나 고퀄리티의 참조 지식이 될 수 있는 데이터를 제공하는 사람은 모델의 지분을 가질 수 있다. 사용자가 이 모델을 사용했을 때 모델의 지분만큼 보상을 받는 구조 를 만들기 위함이다. 재미있는 전략이다. 이런 전략은 어쩌면 카카오가 무료 공개 메 신저로 시작해서 많은 사용자들을 모았고, 대중들의 커뮤니케이션 플랫폼이 되면서 혁신 비즈니스 모델들을 다양하게 만들어 본 경 험에서 비롯되는 것일지도 모른다. 만약 이 새로운 비즈니스 모델 이 만들어진다면, 특정 산업 분야에서 높은 퀄리티의 데이터를 가 지고 있는 개인이나 기업이 코GPT의 학습에 데이터를 제공하게 될 수도 있다. 개인이나 기업이 데이터를 제공할 유인을 블록체인 모델로 제공하고 있기 때문이다. 덕분에 코GPT는 비록 규모가 작 은 모델이지만 다양한 개인과 기업의 참여를 바탕으로 높은 성능 을 발휘하는 모델로 성장해 나갈 수 있을 것이다. - 엑사원EXAONE은 이미지와 텍스트를 함께 학습한 멀티모달 초거대 AI 모델이다. 엑사원은 3천억 개의 파라미터를 가진 모델로 6천 억 개의 말뭉치와 2억 5천만 장의 이미지 - 텍스트 페어 데이터를 학습했기 때문에 언어와 시각정보를 통합적으로 다룰 수 있다. 텍스트를 입력하면 이미지를 생성할 수 있고, 이미지를 입력하면 텍스트로 설명하는 것이 가능하다. 엑사원은 '모두를 위한 전문가 AIExpert Al for Everyone'에서 이름을 따왔는데, 작명에서부터 느낄 수 있듯이 헬스케어, 금융, 교육, 제조 등 전 산업 분야에서 1퍼센트의 전문가와 같은 AI를 개발하는 것이 LG의 목적이다. 엑사원은 세상의 지식을 실시간으로 활용하고 현 실의 난제를 함께 해결하며, 최적의 의사 결정을 돕는 전문가 AI를 꿈꾼다. 즉, 전문가이면서도 폭넓은 AI로서 인간과 협력해 인류의 난제를 해결하고자 하는 휴머니즘적인 철학이 담겨있다. - SKT가 제공하고 있는 에이닷은 사용자 맞춤형으로 다양한 정보 를 제공하여 사용자의 일상 관리를 돕는 서비스다. 아침에 사용자 를 깨우는 일부터 출근, 식사, 업무 일정 등 일상 루틴을 케어하고, 사용자의 관심사나 취향을 파악해 맞춤형 정보를 제안한다. 번거로 운 일들을 대신 처리해주고 사용자가 좋아할 만한 콘텐츠를 추천 해 주기도 한다. 이런 기능들은 SKT의 음성 비서 누구NUGU와 비슷 한 속성을 갖고 있다. 에이닷의 장점은 사람과 이야기하는 것처럼 자연스러운 소통이 가능하다는 점이다. 이를 위해 장기 기억 기술과 이미지 리트리벌 기술을 활용하고 있고 멀티모달 서비스를 적용 중이다. 장기 기억 은 오래된 대화 중 중요한 정보를 별도로 저장해 두었다가 대화 중 에 활용하는 기술이고 이미지 리트리벌 기술은 대화의 흐름상 가장 적합한 이미지를 찾고 소통에 활용하는 기술이다. 멀티모달은 텍스트뿐 아니라 음성, 이미지 등 다양한 데이터를 종합적으로 추 론하는 방식으로 보다 입체적인 소통을 가능케 한다. 또한 편향되 거나 부정확한 답변, 인식 오류 등에 대해서는 지속적으로 사용자 피드백을 통해 교정하면서 서비스를 고도화해 나가고 있다. 2023년 SKT는 자신들이 보유한 슈퍼컴퓨터 '타이탄'을 기존 대비 두 배의 규모로 확장했다. 컴퓨터에 설치된 엔비디아의 GPU 를 1,040개로 증설하였으며 초당 1경 7,100조 번의 연산 처리가 가능한 인프라를 구축했다. 이는 에이닷의 성능을 높여 가겠다는 적극적인 투자이다. 앞으로 에이닷에는 영어 학습, 사진 관리, 엑스 퍼트 서비스 등의 기능도 추가될 예정이며, 외부 사업자들에게도 API를 오픈해 생성형 AI 생태계를 지속적으로 넓혀 가고자 한다.
- 미국과 중국이 큰 축을 차지하고 있는 AI 전쟁에서 한국 기업은 어떻게 생존할 수 있을까? 검색 시장을 제패했던 네이버의 전략을 되짚어 보자. 구글 검색 이 정복하지 못한 3개국이 있다. 바로 중국, 러시아, 그리고 한국이 다. 나스미디어에 따르면 2022년 인터넷 이용자 조사에서 네이버 는 국내 검색 점유율 1위를 차지했다. 그 다음으로 유튜브, 구글이 뒤를 따른다. 구글 검색이 한국에 진출했을 때, 구글은 네이버보다 기술력, 한글 데이터, 자본, 관련 인재와 경험, 모든 면에서 앞서 있었다. 하지만 네이버는 이러한 격차를 극복하고 국내 검색 시장의 1위로 도약했다. - 네이버는 국내 소비자의 감성과 니즈에 집중하고 이를 만족시키는 뾰족한 서비스를 제공했다. 네이버 실시간 검색은 지금 유행 하는 토픽을 알고 싶은 한국인들의 니즈를 저격한 서비스였다. 또 한 네이버 지식인은 기존 단순 검색에서 사용자가 스스로 필요 정 보를 모으고 종합해야만 하는 방식을 순식간에 바꿨다. 궁금한 내 용에 대해 질문을 던지면 전문가가 답변을 달아주는 새로운 검색 은 키워드 검색으로 만족할 수 없었던 소비자들의 마음을 사로잡았다. 검색 플랫폼과 연동된 네이버 카페, 블로그, 스마트스토어도 네이버 검색을 찾게 되는 이유다. 이런 사용자 니즈를 저격한 다양 한 모델들로 네이버 검색량은 급격히 증가하기 시작했다. 네이버는 이렇게 검색의 순환 구조를 만들면서 검색 시장의 지배력을 강화 해 나갔다. AI도 마찬가지다. 네이버 검색이 특정 소비자 타깃의 니즈를 뾰 족하게 파고들었듯이, 불특정 다수의 소비자를 만족시키는 것이 아 니라 구체적인 소비자의 니즈를 노린다면 충분히 승산이 있다. 모 든 분야에 활용 가능한 AI가 아니라 미디어 AI, 엔터테인먼트 AI, 금융 AI, 교육 AI, 의학 AI와 같은 특정 분야에 특화된 AI 서비스 개 발에 집중하는 전략을 생각해 볼 필요가 있다.
- 깃허브의 코파일럿Copilot은 코드 자동 생성 서비스로 2022년 6 월 출시된 이후 많은 개발자들의 사랑을 받고 있다. 개발자의 반쪽 과도 같은 AI 프로그래머인 코파일럿은 코드 작성 에디터에서 실 시간으로 코드와 함수를 제안함은 물론, 코드 한줄 자동 완성부터 전체 코드 블록 작성까지 다양한 기능을 제공 중이다. 2022년 깃허 브의 조사에 따르면 88퍼센트의 개발자가 코파일럿이 개발자의 생 산성을 향상시켰으며, 96퍼센트가 코파일럿으로 반복적인 업무를 더 빠르게 처리할 수 있다고 응답했다. - 깃허브의 코파일럿은 오픈AI의 코덱스Codex에 기반하고 있다. 코덱스는 자연어를 코드로 번역하는 모델로 비공개 베타 버전이 제공 중이다(2023년 2월 기준). 코덱스는 특정 작업 수행에 필요한 컴 퓨터 프로그램의 명령어인 커맨드를 자연어로 해석하고 사용자 대 신 커맨드를 실행할 수 있다. 코덱스는 GPT-3의 후손 격인 모델이 다. GPT-3 가 자연어 프롬프트에 대한 응답으로 자연어를 생성한 다면, 코덱스는 GPT-3의 자연어 이해 능력을 상당 부분 갖추고 있 지만 코드를 생성한다는 점이 다르다. 코덱스의 학습 데이터는 자연 어와 함께 공개적으로 사용 가능한 수십억 줄의 소스코드를 포함하 고 있다. 코덱스는 파이썬에 가장 탁월한 성능을 보이지만 이외에도 자바스크립트Javascript, PHP, 루비 Ruby, 타입스크립트Typescript, 쉘 Shell을 포함한 12개 이상의 프로그래밍 언어를 지원한다. 오픈AI 코덱스의 목표는 사람의 의도를 더 잘 이해하는 컴퓨터를 만들어 서 모든 사람이 프로그래밍으로 더 많은 일을 할 수 있도록 돕는 것이다. 코파일럿이 어떻게 작동하는지를 좀 더 자세히 살펴보자. 우선 개발자가 작성하고자 하는 코드의 로직을 설명하면 코파일럿이 개 발자의 의도를 구현하는 코드를 생성하고 제안한다. 그림에서는 '텍스트의 감성을 분석하는 코드를 웹 서비스를 사용해서 작성해 달라'는 개발자의 요청에 코파일럿이 곧바로 타입스크립트라는 프로그래밍 언어로 코드를 작성하는 것을 확인할 수 있다. 이런 식으 로 반복적인 코드 패턴을 만드는 일은 코파일럿에게 맡기고 개발 자는 구조를 개선하는 등 소프트웨어 개발에 있어서 더 중요한 일 에 더 많은 시간과 노력을 할애할 수 있다. 또한 개발자가 온라인에 서 코드 예제나 함수를 일일이 검색할 필요가 없으므로 많은 시간 과 노력이 절약된다. 코파일럿은 비주얼 스튜디오Visual Studio, 네오 빔Neovim, 젯브레인IDE'etBrains IDE와 같은 인기 있는 코드 편집기에 서도 지원되기 때문에 개발자가 다른 도구로 전환할 필요 없이 본 인이 선호하는 코딩 환경 내에서 사용할 수 있다는 장점도 갖고 있 다. - 물론 코파일럿이 완벽한 코드를 작성하는 것은 아니며 코파일럿 이 생성한 코드가 100퍼센트 개발자에 의해 수용되는 것도 아니 다. 깃허브에 따르면 개발자는 코파일럿이 생성한 코드의 26퍼센 트 정도를 수락했으며, 개발자의 코드 파일 중 평균 27퍼센트 정도 가 코파일럿을 통해 생성되었다. 파이썬의 경우 코파일럿을 통한 코드 생성 비율이 40퍼센트까지 올라가기도 한다. 하지만 코파일 럿은 생성한 코드를 별도로 테스트하지 않으며 더 이상 사용되지 않는 라이브러리를 제안할 수도 있기 때문에 개발자가 직접 테스 트를 거치는 단계가 필수적이다. 그럼에도 이런 한계를 명확히 이 해하고 코파일럿을 활용한다면 더 효율적으로 코딩 작업을 수행할 수 있을 것이다.
- 유닷컴은 궁극적으로 구글의 대항마 자리를 노린다. 유닷컴의 CEO 리차드 소처는 구글이 폐쇄적이고 독점적인 검색 엔진이며, 광고 수익 극대화라는 목표 달성을 위해 사용자를 상대로 AI를 무 기화 했다고 비판한다. 또한 AI가 사용자를 조작하여 광고를 클릭 할 때까지 사이트에서 최대한 많은 시간을 보내도록 유도하는 것 은 이상적이지 않다고 지적한다. 이와 반대로 유닷컴은 개방형 검 색 플랫폼으로, 사용자에게 광고 폭격을 가하는 대신 사용자의 요 구를 충족시키는 것을 가장 중요하게 생각한다고 밝혔다. 또한 유 닷컴은 사용자들에게 검색 엔진 선택권이 있음을 강조한다. 같은 운영체제와 브라우저를 사용하더라도 다른 검색 엔진을 사용할 수 있는 기회와 권리가 있다는 것이다. 유닷컴은 아직 수익화 방법을 고민 중이지만 구글이나 빙 같은 광고 중심의 방식은 아닐 것이라 고 밝혔다. 오히려 덕덕고DuckDuckGo'와 유사한 비공개 광고를 검토 할 계획이라고 전했다. 또한 에세이와 블로그를 작성해 주는 기능에 대한 구독 모델이나, 주식 차트를 표시할 때 주식 앱을 연동하는 등 서드 파티 앱과의 연동을 통한 수익 모델을 고려 중이다. 유닷컴은 2022년 12월 생성형 AI를 도입했으며, 대화형 검색인 유챗은 유닷컴의 가장 특별한 기능이다. 사용자가 유챗을 통해 정 보를 검색하면 유챗은 온라인의 수많은 정보를 텍스트로 요약함과 동시에 출처에 대한 레퍼런스를 함께 표시한다. 사용자는 레퍼런스 의 하이퍼링크를 통해 출처에서 정보의 세부 내용을 확인할 수 있 다. 이는 생성형 AI가 갖고 있는 가장 큰 한계인 정확도와 할루시네 이션 문제를 일정 부분 극복한 것이다. 유챗은 멀티턴 대화도 지원하여, 사용자는 유챗이 제시한 정보를 바탕으로 연속적인 대화를 이어갈 수 있다. 가령 유챗이 추천한 컴퓨터 정보를 표로 정리해 달 라고 하면 표로 정리해서 보여주고, 유챗이 추천한 많은 제품 중에 서 하나만 추천해 달라고 하면 하나의 제품을 이유와 함께 추천해 준다. 이외에도 유닷컴은 에세이, 소셜 미디어 포스트, 블로그 등의 글쓰기, 코드 생성, 이미지 생성 등 생성형 AI를 활용한 기타 기능 들도 제공하고 있다. 유닷컴은 멀티모달 검색을 통해 서비스를 더욱 발전시킬 계획이 다. 계획이 실현될 경우, 사용자 질문의 성격에 따라 텍스트뿐 아니 라 이미지나 영상, 그래프, 표와 같은 다양한 접근법을 활용하여 질문에 더 적합한 응답을 생성할 수 있다. - 우리가 눈으로 보는 것을 컴퓨터가 알아듣는 언어로 표현하기 위해서는 기계와 대화할 수 있는 기술이 필요하다. 이런 기술을 구 매하기 위한 시장이 바로 프롬프트베이스이다. 프롬프트를 사고 판 다는 아이디어가 다소 생소할 수도 있다. 하지만 이 논리는 회사의 온라인 콘텐츠가 구글 검색 결과에서 더 높은 순위를 차지하도록 돈과 인력을 투입하는 검색 엔진 최적화와 큰 흐름에서 유사하다. 그럼에도 여전히 프롬프트를 돈을 주고 구매한다는 발상이 황당 한 이야기처럼 들릴 수 있지만 홈페이지에서 판매되는 상품들의 퀄 리티와 가격을 생각해 보면 생각보다 합리적이다. 현재 6.99달러에 판매 중인 레트로 푸드 스티커 이미지 파일은 기업용 판촉물을 만 드는데 사용할 수 있고, 1.99달러짜리 일러스트레이션 책 표지도 독립 출판을 준비하는 사람에게 유용하게 활용될 수 있다. 이처럼 상품들의 질이 유지될 수 있는 것은 프롬프트베이스가 프롬프트의 신 빙성을 위해 내부 검토 프로세스를 거치고 있기 때문이다. 마켓플레 이스에 등록된 모든 프롬프트는 사람이 직접 검토하며, 일관된 결과 를 안정적으로 생산하지 못하는 프롬프트는 이 단계에서 탈락한다. 게다가 다양한 스틸 사진을 생성할 수 있는 프롬프트는 저작권 걱 정 없이 마음 놓고 이미지를 사용할 수 있다는 점에서 아주 매력적이 다. 틱톡 비디오 스크립트, 비즈니스 모델 생성기, 책 작성, 유튜브 생 성기 등은 챗GPT의 인기 프롬프트로, 콘텐츠를 만드는 사람이라면 솔깃할 만하다. 물론 앞으로 풀어야 할 과제들도 남아 있다. 현재 프 롬프트베이스는 20퍼센트의 수수료를 받고 프롬프트 판매자는 수 익의 80퍼센트를 가져가는 구조로 되어 있다. 하지만 AI 작품이나 프롬프트의 저작권에 대한 문제는 합의가 되지 않은 영역이다.
- 혁신 기술은 새롭게 소비자 효용을 창출하면서 비즈니스 방식을 변화시키고 때로는 새로운 시장을 만들어 산업의 지형을 바꾼다. 하지만 무엇보다 중요한 사실은 혁신 기술이 등장하는 초기에는 이러한 변화의 상당 부분을 예측하기 어렵다는 것이다. 기술 혁신 이 일어나면 이전에는 전혀 상상하지 못했던 사회·경제적 양상, 시 장 그리고 심지어 문화의 변화까지 나타난다. 이렇게 혁신 기술로 인해 모든 것이 다시 시작되는 것 같은 순간이 찾아오는데 이를 '리셋 모먼트'라 부른다. - 전략 기술 트렌드 예측으로 유명한 가트너는 생성형 AI가 적용 될 산업 분야를 어떻게 전망할까? 2023년 가트너는 생성형 AI가 활발하게 적용되고 있는 산업으로 다음의 다섯 가지를 꼽았다. 신약 설계, 재료 과학, 반도체 설계, 데이터 합성, 부품 설계가 그것이다. 신약은 보통 개발부터 시장에 선보이기까지 약 18억 달러의 비 용이 필요하다. 이 가운데 1/3은 신약 설계에 소요되는 비용이며, 이 단계에만 무려 3년에서 6년 정도의 시간이 필요하다. 생성형 AI 는 신약을 설계하는 이 기간을 수개월 단위까지 단축하며 비용을 획기적으로 줄일 수 있을 것이라 예측된다. - 재료 과학과 관련성이 높은 자동차, 항공 우주, 방위, 에너지 등 의 산업 분야에서는 '인버스 디자인'을 통해 완전히 새로운 소재를 찾는 작업에 AI가 활용될 수 있다. 인버스 디자인이란 제품이 필요 로 하는 물성을 정의하고, 이로부터 역으로 해당 물성을 가질 가능 성이 높은 소재를 찾거나 만들어 내는 방법이다. 이 역시 데이터 분 석이 중요한 과정이므로 생성형 AI가 중요한 역할을 수행할 수 있 다. 반도체 또한 설계 단계에서 테스트를 거쳐 양산에 이르기까지 오랜 시간의 투자가 요구되는 분야이다. 생성형 AI는 이 과정에서 반도체의 설계를 최적화할 수 있는 디자인을 빠르게 만들어 냄으로써 몇 주씩 소요되었던 전문가의 제품 개발 라이프사이클을 단 몇 시간까지도 줄일 수 있을 것으로 기대된다. 지금까지는 개인 정보 보호 이슈 때문에 데이터 분석을 진행하 기 어려운 분야가 있었다. 하지만 생성형 AI를 활용하면 실제 데이 터의 통계적 특성을 파악하여 만들어 낸 가상 데이터 혹은 합성 데 이터를 토대로 데이터 분석을 진행해 이런 문제를 해결할 수 있다. 예컨대, 의료 데이터에서 개인 정보를 제외하고 실제와 유사한 가 상 데이터를 생성하여 연구 분석을 진행할 수 있는 것이다. - 마지막으로 생성형 AI를 이용하여 성능, 재료, 제조 방법 등 특정 목표와 제약 조건을 충족하는 최적화된 부품을 설계할 수도 있다. 예를 들어, 자동차 제조 업체에서는 생성형 AI로 최적화된 부품을 설계함으로써 최종 제품인 자동차의 연비 향상을 이룰 수도 있다. 또한, 가트너는 2022년 기준 아직까지는 마케팅 메시지의 2퍼 센트만이 생성형 AI를 통해 만들어지고 있지만 2025년에는 대형 기업의 아웃바운드 마케팅 메시지 중 30퍼센트가 생성형 AI의 도 움을 받을 것이라고 예측한다. 그뿐만 아니라 영화 산업에서는 2030년 주요 블록버스터 영화의 90퍼센트가 생성형 AI로 만들어 질 것이라 예견하기도 했다.
- 쉽고 빠른 카피라이팅 전문가: 카피스미스 카피스미스Copysmith가 사용자들에게 어필하는 포인트 중 하나 는 '빈 페이지 앞에서 멍하니 시간을 보내고 있지 말라'는 메세지이 다. 카피스미스에 당장 떠오르는 키워드를 넣는 것만으로도 카피라 이터, 블로거, 마케터는 빠르게 창의적인 아이디어를 얻고 점점 더 풍성하게 콘텐츠를 만들어 갈 수 있다고 강조한다. 카피스미스는 창의력이 풍부하든 그렇지 않든 누구나 쉽고 빠르게 광고 콘텐츠 작성을 시작할 수 있게 도와준다고 홍보한다. 카피스미스는 GPT-3를 기반으로 카피라이터와 AI 전문가가 함께 설계한 카피라이팅 서비스이다. 이 서비스는 사용 케이스에 따라 분류한 50개 이상의 템플릿을 제공한다. 또한 원하는 템플릿이 없는 경우 맞춤형 콘텐츠를 생성하는 것도 가능하다. 사용자가 해 야 하는 일은 단지 몇 개의 키워드를 입력하는 것뿐이다. 브레인스 토밍, 리서치, 초안 작성, 편집, 교정 등의 과정에 필요한, 지루하고 시간이 많이 걸리는 노력을 획기적으로 줄여준 것이다. 이렇게 AI 의 도움을 받아 매력적인 카피를 순식간에 생성한 사용자는 추가 적으로 콘텐츠의 완성도를 높일 수 있다. 이를 위해 카피스미스는 광고, 소셜 미디어부터 블로그 게시물까지 단어 수 및 가독성까지 체크해 준다. 또한 표절 검사기가 내장되어 있어서 작성한 카피를 검증하는 데도 활용할 수 있다. 카피스미스의 또 다른 특징은 팀원들과 함께 공동 작업을 할 수 있다는 점이다. 서비스의 UI에서 콘텐츠 작업에 팀원을 할당하고 작업 상태를 설정하기만 하면 쉽게 작업을 공동으로 진행할 수 있 다. 카피스미스는 크롬 브라우저의 확장 프로그램도 제공하고 있 고, API로도 활용이 가능하다. 카피스미스는 2020년 설립된 미국 스타트업으로, 쉽게 배포할 수 있는 AI 서비스를 통해 고객의 성장을 촉진하겠다는 목표로 설 립되었다. 2021년에 자신들의 서비스를 구글 애즈Google Ads에 통합 하는 기능을 출시했고, 현재는 생성형 AI 기반 카피라이팅 플랫폼 을 구축하기 위해 새로운 기능과 콘텐츠 템플릿을 지속적으로 만 들어 나가고 있다.
- 생성형 AI의 사용자는 자신이 원하는 방향으로 콘텐츠가 만들어 지게끔 프롬프트를 통해 AI를 잘 이끌어야 한다. 프롬프트가 구체 적이고 창의적일수록 더 고퀄리티의 결과물이 나온다. 아마존에는 이미 달리, 미드저니, 스테이블 디퓨전 관련 이미지 프롬프트 책이 다수 출간되었고, 앞 장에서 살펴본 프롬프트베이스처럼 프롬프트 를 돈 주고 거래할 수 있는 마켓플레이스도 등장했다. 따라서 '프롬 프트 엔지니어링'은 지금보다 똑똑한 차세대 AI가 등장할 때까지는 특히 창작 영역에서 가장 중요한 기술이자 직무로 자리 잡을 가능 성이 높다. - 또한 프롬프트는 한두 번의 입력으로 끝나지 않는다. 모델이 이미지나 텍스트와 같은 콘텐츠를 생성하면 다시 사람이 이를 평가 하고 편집하는 파인 튜닝 작업이 이루어져야 하는데, 특히 이미지 생성 모델은 상당히 긴 과정의 프롬프트 엔지니어링을 거쳐야 한 다. 미술전에서 1등을 차지한 제이슨 앨런과 미드저니의 합작품은 무려 80시간 이상, 900개 이상의 습작으로부터 탄생한 결과이다. 제이슨은 원하는 그림을 얻을 때까지 프롬프트를 계속해서 미세 조정한 뒤, 어느 정도 원하는 결과물이 나왔을 때 어도비 포토샵과 AI툴을 활용해 이미지의 품질과 해상도를 높였다. 그렇게 완성된 세 개의 작품이 캔버스에 인쇄되어 세상에 드러난 것이다. 이처럼 창작의 영역은 AI가 가장 빠르게 발전하고 있는 부분이 지만 동시에 여전히 인간의 개입이 필수적인 분야이다. 이런 흐름 에 맞게 창작과 콘텐츠 분야의 생성형 AI는 사용자와 AI 사이의 협 업을 증진하고, 사용자가 AI를 활용해서 더 좋은 결과물을 만들 수 있도록 지원하는 방향으로 흘러가고 있다. - 생성형 AI는 아직 전문가가 만든 콘텐츠 만큼 고퀄리티의 영상 을 생성하지는 못하고 있다. 하지만 기술력이 성숙하는 단계에 이 르면 멀티미디어 영역에서도 고도화된 모델을 기반으로 다양한 서 비스가 나올 것으로 기대된다. 다만 구글과 메타는 텍스트를 영상 으로 바꾸는 AI의 소스코드는 공개하지 않았다. 유명인이나 지인을 합성하는 악용 사례를 우려한 결정이다. 대표적인 미디어 매체인 뉴스의 경우에도 생성형 AI 서비스의 혜택을 누릴 것으로 보인다. 데이터 수집과 같은 저널리즘의 단순 업무는 생성형 AI를 활용해 자동화하고, 기자와 편집자는 스토리라 인 등에 집중하는 것이다. 이제 미디어 업계에서 AI는 일종의 필수 도구가 되었다. 이 새로운 도구를 얼마나 잘 활용하는지가 경쟁력 이 되는 시대가 온 것이다. - 지금까지 디자인은 인간의 창의성이 표현되는 대표적인 영역이 었다. 디자인을 포함해 예술 분야에서는 도구에 대한 논란이 끊임 없이 등장해 왔다. 사진 기술이 처음 등장했을 때 과거의 예술가들 은 사진을 예술로 인정하지 않았다. 하지만 현대의 사진은 엄연한 예술의 영역으로 인정받고 있다. 디지털 도구로 사진을 편집하는 포토샵이 처음 등장했을 때도 이런 도구는 예술가의 영역을 침범 하고 과도한 경쟁을 유발한다는 논란이 있었다. 이런 역사를 통해 우리가 잊지 말아야 하는 점은, 언제나 새로운 도구가 도입되었을 때는 이를 거부하는 사람들이 있었고, 반대로 이를 적극적으로 채택하여 본인의 경쟁력을 강화해 온 사람들 또 한 있었다는 것이다. 생성형 AI 서비스는 디자이너가 반복적인 작 업을 간편하게 처리해 효율적으로 작품과 디자인에 대한 아이디어 를 빠르게 떠올리도록 도울 수 있다. 예를 들어, 챗GPT에 "[무언 가]에 적합한 색 구성표를 찾아줘"와 같은 요청을 할 수 있다. 이러 한 사용자의 요청에 대해 챗GPT는 몇 가지 권장 사항을 제공하는 데 이를 참고하여 디자인 가이드로 활용할 수 있다. 디자인 AI는 과 거의 사진 기술처럼 논란의 대상일 수도 있지만, 생성형 AI가 디자 이너에게 유용한 도구라는 사실은 분명하다. 디자인 분야가 생성형 AI를 활용해 더 풍부한 영역으로 나아갈 수 있을지는 디자이너들 의 선택에 달렸다.
- 키퍼와 타뷸레이트 서비스는 모두 GPT-3 모델을 기반으로 하 고 있다. 이들은 언어 모델의 텍스트 처리 능력을 기반으로 데이터 를 분류하고 편리한 세금, 회계 관리를 지원한다. 재밌는 것은 둘다 명확한 고객층을 타깃으로 서비스를 시작했다는 점이다. 키퍼는 긱 워커와 크리에이터, 타뷸레이트는 푸드트럭이나 중소규모의 식당 을 운영하는 사람 등을 주요 고객으로 삼고 서비스를 개발했다. 세 무사나 회계사를 고용하기에는 비용이 부담되고 또 기존의 소프트 웨어가 잘 지원하지 못하는 고객을 시작으로 점차 비즈니스 영역 을 확장해 나가고 있는 것이다. - 현재 금융 분야에서 생성형 AI는 금융 서비스의 단순 자동화와 비용 절감에 주로 활용되고 있다. 하지만 점차 초개인화된 금융 자 문 서비스로 발전해 나갈 것이다. 예컨대 계좌 잔액 확인, 결제, 투 자 추적과 같은 고객 응대 서비스에 주로 활용되기 시작하여, 이후에 는 은행 직원의 도움 없이 생성형 AI와의 대화를 통해 금융 거래를 빠르고 효율적으로 완료할 수 있게 될 것이다. 기업 입장에서는 콜센터 및 오프라인 지점 운영 비용을 절감할 수 있다. 하지만 이는 정말 기초적인 수준에 불과하다. 앞으로 생성형 AI 가 금융에 미칠 영향은 고객 서비스 이상이 될 것이다. 챗GPT가 대중에게 충격을 주었던 것은 단순히 기존 데이터를 잘 요약해 주 었기 때문이 아니다. 이는 기존 데이터를 기반으로 새로운 내용을 '생성하는 일이 가능했기 때문이었다. 따라서 생성형 AI는 방대한 양의 금융 데이터를 학습해 기존 분석가들이 볼 수 없었던 트렌드와 패턴을 포착하고 미래를 예측하는데 활용될 수 있다. 예를 들어 뉴스 기사, 수익 보고서, 애널리스트 보고서와 같은 대량의 금융 관 련 데이터를 처리하고 분석해서 주식 또는 전체 시장 예측에 대한 새로운 의견을 생성할 수도 있다. 또한 생성형 AI는 개인에게 맞춤화된 금융 조언과 상품 추천 등 을 제공하게 될 것이다. 이를 통해 더 많은 소비자가 더욱 개인화된 금융 경험을 누릴 수 있다. 자산가들이 주로 이용하는 자산관리 서 비스는 AI를 통해 대중화될 것이며, 재정 자문 및 계획, 투자 추천, 포 트폴리오 관리 등의 서비스를 일반인도 사용할 수 있게 될 것이다. - 2016년 설립된 노션랩스Notion Labs는 미국 샌프란시스코에 본사 를 두고 있는 유니콘 스타트업으로, 현재 시리즈 C까지 총 3억 4000만 달러가량의 투자를 받았다. 이 기업은 메모, 문서, 프로젝 트 관리, 웹 사이트 등 모든 업무 관련 애플리케이션을 통합한 올인 원 업무 서비스 노션을 제공하고 있다. 노션이 갖는 장점은 업무를 위해 여러 가지 앱을 사용했던 기존 서비스와 달리 하나의 서비스 에 모든 기능을 통합했을 뿐만 아니라 직관적인 인터페이스까지 갖추고 있다는 점이다. 이런 특징이 유효하게 작용해, 출시 후 사용자들의 폭발적인 호응을 얻으며 현재 50개국 이상의 고객들이 사용하고 있다. 노션랩스는 2023년 2월 노션AI 서비스를 출시했다. 오픈AI의 GPT-3 모델을 기반으로 문서 작성을 지원하는 서비스이다. 현재 영어를 비롯해서 한국어, 일본어, 프랑스어, 독일어 총 다섯 개 언 어로 서비스를 지원하고 있다. 하지만 GPT-3가 영어 텍스트를 주 로 학습한 모델인 만큼 영어 버전의 성능이 가장 높다. 노션 AI는 총 14개 기능을 제공한다. 주요한 기능으로 사용자가 참신한 아이디어를 떠올릴 수 있게 도와주는 브레인스토밍, 더 빠 른 업무를 위한 단순 작업 자동화, 맞춤법 오류, 문법 오류 수정 및 번역 등을 제공 중이다. 게다가 작성된 글의 콘셉트도 클릭 한 번으로 바꿀 수 있다. 캐주얼한 글인지, 전문가 스타일의 글인지만 선택 하면 노션AI가 전체 글을 다듬어 준다. 전문 글쓰기를 하는 사람들 이 글쓰기를 빠르게 시작하고 편하게 마무리할 수 있도록 돕는 기 능이다. 노션AI는 메모 요약, 할 일 목록 정리, 콘텐츠 커스텀이 가능한 AI 블록을 제공한다. 이 기능들을 활용하면 이제 회의록을 작성할 사람을 따로 지정할 필요가 없어진다. 회의를 녹음해서 업로드하기 만 하면 회의 내용 요약에서 해야 할 일 정리까지 순식간에 처리되 기 때문이다.
- 그 목적에 따라 검색 양상은 크게 네 가지 정도로 분류해볼 수 있다. 첫 번째 검색 양상은 룩업형 검색 Exploitative, lookup search이다. 가장 기본적인 검색 방식으로 사용자가 찾고자 하는 목표가 명확 한 경우이다. 사용자는 자신이 뭘 원하는지를 분명히 알고 있고 비 교적 객관적인 정답이 존재한다. 날씨나 제품의 가격을 묻거나 유 명인의 생일을 확인하는 것이 이에 해당한다. 두 번째 검색 양상은 탐사형 검색 Exploratory search 으로 탐사형 검색을 하는 사용자는 자신이 무엇을 원하는지에 대한 목표도 불분 명하고 해당 영역에 익숙하지 않다. 사용자는 부정확한 검색 쿼리 를 이리저리 수정하고, 초기 결과를 바탕으로 쿼리를 반복적으로 재구성하는 등 매우 역동적인 행동을 보인다. 예를 들어 뉴스를 통 해챗GPT를 처음 접한 사용자가 챗GPT를 통해서 무언가 해보고 싶다는 생각이 들어서 인터넷을 찾는 경우가 탐사형 검색에 속한다. 세 번째로 룩업형 검색과 탐사형 검색의 양상이 결합된 유형인 하이브리드 검색 Hybrid search이 존재한다. 사용자가 자신이 뭘 원하는지는 알고 있지만 더 많은 정보와 추가 탐색이 필요한 케이스다. 이때 사용자는 한 번의 쿼리로 검색을 끝내는 것이 아니라 다수의 문서와 항목들에 걸쳐 반복적으로 검색하고 정보들을 종합해야 한다. 제한된 예산 내에서 컴퓨터 구매를 위한 결정을 내리는 경우가 여기에 해당한다. 마지막 검색 양상은 대규모 언어 모델 그리고 생성형 AI의 탄생 과 함께 등장한 생성형 검색 Generative search이다. 챗GPT에게 소설 이나 이메일을 써 달라고 하거나, 코드 작성을 요청하는 경우가 여 기에 해당한다. 이는 기존 검색 엔진에서는 찾아볼 수 없었던 검색 양상이다.
- GPT-3.5를 기반으로 한 챗GPT는 입출력이 텍스트에 제한되어 있었다. 그리고 2023년 3월 14일 오픈AI는 GPT-4를 공개하면서 자신들의 모델이 대규모 멀티모달 모델large multimodal model로 진화 하였음을 발표했다. GPT-4는 이전보다 매개변수가 더 커지고 성 능도 향상되었으며, 특히 창의력과 추론 능력이 발전하였다. 이제 막 출시된 GPT-4는 듀오링고Duolingo, 칸 아카데미, 모건스탠리 Morgan Stanley와 스트라이프Stripe 등 교육에서 금융에 이르기까지 다양한 분야에서 서비스 고도화를 위해 도입하고 있다. - GPT-4의 가장 인상 깊은 변화는 텍스트와 이미지를 모두 입력 으로 받아 이해하고 처리할 수 있는 멀티모달 모델이 되었다는 점이다. 예를 들어, 냉장고 내용물 사진을 제시하고 어떤 요리를 만들 수 있는지 물어보면 GPT-4는 사진 속 재료로 만들 수 있는 음식 을 제안한다. 또한 이미지의 유머 코드를 이해하는 것까지도 가능 하다. 멀티모달 모델이 적용된 GPT-4는 실제 서비스에 적용될 수 있도록 테스트 과정을 거치고 있다
- 각각 독자적으로 미적분학을 만들어 낸 뉴턴과 라이프니츠의 업적 과 관련해 역사책을 뒤져 보면 편지로 영국 해협을 왕래하며 서로 표 절이라고 신랄하게 비난하던 당시 사람들의 어리석음에 대해 읽을 수 있다. 둘을 비교할 때 우리 이야기에 관련된 한 가지 중요한 사실은 라 이프니츠가 만들어 낸 기호가 더 우수했다는 점이다. [7] 적분을 위해 사 용하는 핵심 기법(교과서에서는 '치환적분법'이라고 부르는)은 라이프 니츠의 기호를 사용할 때 거의 자동으로 이루어지는 반면, 뉴턴의 방식 에서는 더 복잡하다. 혹자는 미적분으로 인해 빠르게 발전하던 다른 유럽 지역의 수학에 비해 영국이 뒤쳐졌던 이유를 맹목적으로 자국의 영웅인 뉴턴을 떠받들던 그 시대 영국의 분위기 때문이었다고 말한다. - 범용의 문자 체계 라이프니츠가 어린 시절 꿈꾸었던 '놀라운 생각', 즉 사람의 생각을 나 타내는 기호와 그 기호를 처리해 생각을 계산하는 기계는 어떻게 되었 을까? 자기 혼자서는 이 원대한 꿈을 이룰 수 없다는 사실을 잘 알고 있었지만 그는 절대로 꿈을 포기하지 않았고 그 꿈에 대해 계속해서 글을 써냈다. 기초 연산과 대수학에서 사용하는 특별한 문자들, 화학 이나 천문학에서 사용하는 기호들, 그리고 그가 미분과 적분 방정식에 서 사용했던 기호들은 적절한 기호가 문제의 해결에서 얼마나 중요한 지 새로운 패러다임을 보여 줬다. 라이프니츠는 이처럼 특별한 문자 기호들이 가능케 하는 새로운 언 어 체계를 '문자 체계 characteristic'라고 불렀다. 기호 자체에 의미가 없는 알파벳과 달리 앞에서 소개한 기호들은 실제적인 문자 체계로 각각의 문자 기호가 분명히 존재하는 개념을 자연스럽게 나타낸다. 라이프니츠는 범용의 문자 체계가 필요하다고 믿었다. 이러한 범용 체계는 실 제로 존재하고 모든 인간의 생각을 다 표현할 수 있다는 믿음이었다. 프랑스의 수학자 기욤 드 로피탈에게 쓴 편지에서 라이프니츠는 이 렇게 썼다. "대수학을 푸는 비밀은 부호를 어떻게 사용해 내는지 그기 술 여부에 달려있습니다. 적절하게 부호를 사용하면, 이 부호가 '아리 아드네의 실타래10'가 되어 학자들이 자신의 체계를 만들도록 인도할 것입니다." 20세기 초반 논리학자이자 라이프니츠를 연구한 학자 루이 쿠투라 는 이렇게 설명했다. 대수학에서 기호는 수학의 시스템 자체를 상징한다고 볼 수 있고 모델로도 쓰인다. 이는 또한 라이프니츠가 꾸준히 인용했던 것처럼, 적 절한 기호의 선택이야말로 논리를 추론해 가는 데 유용할 뿐 아니라 꼭 필요하다는 걸 보여 준다. 아마도 라이프니츠와 많은 서신을 교환했던 프랑스의 학자 장 갈로이 스에게 보낸 이 편지의 글만큼 그의 문자 체계 제안을 잘 설명하는 것 이 없을 듯하다. 나는 이 새로운 과학 체계의 실제 가치를 점점 더 확신하고 있습니 다. 하지만 이 과학 체계의 의미를 이해하는 사람은 거의 없다고 봐도 좋습니다.... 이 체계는 어떤 특정한 언어로 구성되어 있습니다. · 이것이 우리 생각의 관계들을 완벽하게 표현합니다. 이 체계의 문자들은 지금까지의 상상과는 완전히 다를 것입니다. 사람들이 대 수학이나 기초 연산에서 하는 것처럼 이 문자들은 의미를 만들고 판 단하는 데 사용되기 때문입니다. 이 체계는 대단히 강력한데, 그중 이 문자 체계를 사용하면 말이 안 되는 것(거짓된 사실)들은 표현할 수 없다는 점이 특히 중요합니다. 무지한 사람은 그 체계를 사용할 수 없습니다. 아니면 그 체계를 사용하면서 똑똑해질 것입니다.
- 불은 논리의 추론이 수학의 한 분야로 발전할 수 있음을 증명하는 위대한 업적을 남겼다. 아리스토텔레스가 논리학을 개척한 이후로 (그리스 시대의 스토아학파와 20세기 유럽 학자들에 의해) 몇 가지 발전이 있긴 했지만 불은 아리스토텔레스가 2000년 전에 남겨 놓았던 주제를 재발견하게끔 했다. 수리 논리학mathematical logic은 불 이후 현 재에 이르기까지 지속적으로 발전하고 있다.
- 칸토어는 뛰어나고 혁신적인 사상가였다. 그의 추상적 원칙과 일관된 수학적 직관은 무한이라는 새로운 수학 세계를 만들어 냈다. 그의 정리들은 여전히 변화 없이 사용되고, 현대에 와서 그보다 더 엄밀한 체계를 사용할 수 있는 집합론 학자들에 의해 계속 발전하고 있다. 그러나 칸토어는 정신적으로 심각한 문제가 있었는데, 조울증으로 인해 감정의 극단을 오가며 고통 받고 있었다. 또한 자신의 연구를 무 의미하게 여기는 스승 크로네커로 인해 깊은 상처를 받았다. 그는 크 로네커의 반대가 단순히 말 수준을 넘어 여러 차례 그의 연구를 지연 시키거나 막았다고 믿었다. 그러나 크로네커와 그와의 관계는 여전히 우호적이었고 그의 연구들은 급진적인 내용을 담았음에도 모두 출판 되었다. 부유한 학자였던 크로네커는 학계의 논쟁을 멀리하고 스스로 만들어 낸 방법들로 수학을 파고들어 중요한 결과를 만들어 내는 데 만족하고 있었을지도 모른다. 그리고 이들이 만들어 낸 결과를 현재의 연구와 교육에 사용하고 있는 우리는 두 사람 모두를 존경해야 한다.
- 폰 노이만과 훗날 컴퓨터에 대해 함께 연구했던 사람은 폰 노이만이 수학의 일관성 증명을 위해 얼마만큼 노력을 기울였는지 엿볼 수 있는 재미있는 일화를 소개했다. 하루 일과를 마치고 나면 (폰 노이만은) 침대에 누워 새로운 통찰을 얻을 때까지 깨어 있곤 했습니다. (수학의 일관성을 증명하기 위해 계속해서 생각했지만 성공하지 못했던 겁니다! 어느 날 밤 그는 꿈속 에서 걸림돌을 해결하는 방법을 발견해서 더 길게 증명을 이어갈 수 있었습니다. 그리고 다음날 아침 다시 증명에 매달렸지만 실패했습 니다. 그리고 그날 밤 다시 침대에 누워 꿈을 꾸었습니다. 이번에는 정말로 그 걸림돌의 해결책을 찾은 겁니다. 그러나 아침에 깨었을 때 는 ... 여전히 문제점이 남아 있었습니다. 폰 노이만은 “세 번째 밤 역시 꿈을 꾸었다면 결과는 달랐을 것입니다!"라고 재치 있게 술회했다.
- 1930년대 프린스턴에서 수학을 둘러싸고 벌어진 일들 1930년대 (그리고 1950년대까지) 프린스턴의 수학과는 낮은 층수의 매력적인 붉은 벽돌 건물인 파인 홀Fine Hall에 입주해 있었다. 그 시절 파인 홀에서는 프린스턴 대학교의 수학과 교수들뿐 아니라 고등연구 소의 수학자들이 일하고 있었다. 나치 정권을 피해 미국으로 탈출한 과학자들이 대거 유입되었으며, 프린스턴에 모여 있는 수학자들의 재 능은 1930년대에 이르러 괴팅겐과 견줄 만했고 곧 괴팅겐을 능가했 다. 파인 홀의 복도에서는 바일, 아인슈타인, 폰 노이만과 같은 사람들 을 마주칠 수 있었다. 이때의 폰 노이만은 수학의 근본에 관한 힐베르 트의 프로젝트에서 아주 멀어져 있었다. 논리학자 알론조 처치 역시 프린스턴 대학교의 교수 중 한 명이었 다. 또한 수학자로서 뛰어난 업적을 남긴 스티븐 클레이니와 버클리 로서가 처치의 박사과정 학생으로 거기에 있었다.
- 1947년 2월 20일 튜링은 런던 수학 학회에서 디지털 전자 컴퓨터를 주제로 한 강연 중 에이스에 대해 이야기했다. 그는 1936년 쓴 <계산 가능한 수> 논문에 대한 이야기로 시작했다. 나는 중앙에서 제어하고, 무한한 테이프에 담겨 메모리에 제한이 없 는 기계에 대해 상상했습니다. 한 가지 결론은 사람이 대략적으로 셈을 하는 과정'과 '기계의 과정'은 동일하다는 것입니다. 에이스와 같은 기계는 내가 상상했던 기계의 실제적인 버전이라고 생각할 수 있 습니다. 에이스와 같은 디지털 컴퓨터는 범용 기계의 실제적인 버전 이라고 부를 수 있을 만큼 둘 사이에는 유사점이 아주 많습니다. 튜링은 이어서 이런 질문을 던졌다. "컴퓨터는 이론적으로 얼마만큼 사람을 흉내 낼 수 있을까요?" 이어서 그는 컴퓨터가 스스로 배울 수 있고 때론 실수도 할 수 있도록 프로그래밍할 수 있을지 질문했다. “이 렇게 이야기할 수 있는 여러 가지 정리가 있습니다. ... 기계에 실수가 없다면 지능이 있다고 이야기할 수도 없습니다.... 그러나 이러한 증 명은 기계가 실수를 한다는 가정하에 얼마만큼의 지능을 보일 수 있을 지는 이야기하지 않습니다." 이 말은 괴델의 불완전성 정리를 에둘러댄 언급이었는데, 다음 장에 서 더 이야기하겠다. 튜링은 컴퓨터가 사람보다 더 완벽하리라 기대해 서는 안 된다고 하며 '컴퓨터에게 공정한 게임'을 요청했다. 그러면서 그 시작으로 체스 게임이 적절한 연습이 되리라 제안하며 강연을 마무 리했다. 아직 그러한 기계가 단 하나도 완성되지 않았을 때였다! 전해 지는 말에 따르면 청중들은 놀라 아무 말도 못했다고 한다. 블레츨리 파크의 책임자들은 적절한 재정과 지원을 얻지 못하게 되자 윈스턴 처칠에게 편지를 보냈고 처칠은 즉시 그들이 필요로 하는 지원 을 얻도록 조치했다. 그러나 에이스 제작은 우선순위에서 밀렸고 NPL 담당자들은 관리에 미숙했다.
- 사람의 자아 인식은 우리가 각자의 고유한 개성을 경험하는 주요한 방식이다. 그러나 우리는 오직 우리 마음으로만 인식할 수 있다. 우리 는 우리 자신의 자아만 인식하지 다른 사람들의 의식은 알지 못한다. 내 아내는 자신의 의식이 대부분 시각적 이미지로 채워져 있다고 강조 한다. 아내의 의식과 내 의식이 정말로 같은 종류일까? 의식은 도대체 무엇이고 의식의 목적은 무엇이란 말인가? 내가 이 글을 쓰며 적절한 표현을 찾고 있는데 운이 좋을 때는) 마음 깊은 곳에 있는 의식에서 그 단어가 떠오른다. 내 머리에서 어떻게 그렇게 신기한 일이 벌어지 는지는 나도 모른다. 단순한 진리는 이 시점에 자각이란 현상은 여전히 미스터리로 남아 있다는 사실이다.
- 챗GPT의 답은 물을 때마다 조금씩 달라집니다. 그 이유는 챗 GPT의 답의 자유도를 설정할 수 있기 때문입니다. 이것을 챗 GPT의 온도temperature라고 부릅니다. 흔히 0도에서 1도 사이 로 설정합니다. 0에 가까울수록 정답만 말합니다. 트랜스포머 는 주어진 단어들을 보고 그 뒤에 올 가장 근사한 단어를 찾아 내는 모델이라고 했지요? 가장 높은 점수를 받은 단어만 결과 로 내놓는 것을 0도의 온도라고 부릅니다. 이렇게 되면 같은 질 문을 몇 번을 묻더라도 동일한 답을 내놓을 겁니다. 1에 가까울수록, 그러니까 온도가 높아질수록 자유도가 높아집니다. 가장 점수가 높은 단어뿐 아니라 그것과 비슷한 점수를 받은 다른 단어들을 내놓는다는 뜻입니다. 문장은 여러 개의 단어로 이뤄 지므로 첫 번째 단어로 다른 것을 내놓으면 그다음에 올 단어 들도 모두 달라질 가능성이 높습니다. 챗GPT의 온도는 0도로 설정되어 있지 않으므로, 물을 때마다 조금씩 다른 답이 나오 게 되는 것입니다. - 인공지능은 '잠재된 패턴'이 있는 곳에서는 어디서나 위력을 발휘할 수 있습니다. 컴퓨터 프로그래밍은 인간이 만든 언어를 가지고 하는 일입니 다. 그러니까 굉장히 규칙적이고 닫힌 세계에 있지요. 이런 곳 에서는 GPT가 굉장히 잘 쓰일 수 있습니다. 이미 여러 소프 트웨어 회사들이 챗GPT를 쓰고 있는데, 경험자들은 똘똘한 3 년 차 개발자 서너 명이 옆에 붙어 있는 것과 비슷한 것 같다고 말합니다. 법률사무직도 인간이 만든 엄격한 형식에 따라 움직이는 곳이니 당연히 인공지능이 잘할 수 있습니다. 언론 보도도 마찬가지입니다. 비슷한 형식을 갖춘 기사들이 있지요. 가령 일 기예보라든가 스포츠 경기의 결과 보도가 그렇고, 주식시장의 움직임도 그렇습니다. 숫자에 따라 대개 비슷한 패턴을 보이지 요. 지표에 따라 투자하는 주식 거래도 마찬가지고요. 그래픽 디자인 쪽도 생성형 인공지능의 발전이 하루가 다릅니다. 디 자이너가챗GPT를 잘 쓰는 사람일 경우에는 짧은 시간에 굉장 히 많은 일을 할 수 있기도 합니다. 사람들이 챗GPT에 열광하 는 데는 분명한 이유가 있습니다. - 말하자면 지금의 인공지능은 '어려운 일은 쉽게 하고 쉬운 일은 어렵게'합니다. 잠재된 패턴이 없는 곳, 그러니까 확률이 필요하지 않은 분야에서는 어처구니없이 약합니다. 챗GPT는 인터넷에 올라와 있는 거의 모든 문서를 학습했다고 해도 과언 이 아닐 텐데요, 이 말은 웹에 없는 정보에는 취약하다는 것을 의미합니다. 가령 다섯 자리 이상의 더하기, 빼기의 모든 셈 결 과가 웹에 다 있는 것은 아니겠지요. 123,456,789+56,789 와 같은 셈의 결과들이 모조리 인터넷에 올라와 있을 리는 없으 니, 챗GPT는 이런 셈을 잘하지 못합니다. - 모차르트의 첼로 협주곡에 대해 물으면 쾨헬 넘버(모차르트의 곡에다 연대기 순으로 번호를 붙인 것)까지 붙여서 다섯 곡을 내놓기도 합니다. 모차르트의 첼로 협주곡은 실제로 남아 있는 게 없지 만챗GPT는 쾨헬 넘버까지 붙여서 답을 합니다. 그래야 그럴듯 하기 때문입니다. 뭔가 허언증환자와 비슷한 느낌입니다. 미국의 인공지능 스타트업인 갓 잇 AIGot it Al에서 조사한 결과 챗GPT가 한 답변의 15~20퍼센트 정도에서 할루시네이션 오류가 보이는 것으로 나왔습니다. 그래서 노엄 촘스키 같은 세계 최고의 언어학자는 "GPT는 천문학적인 양의 데이터 에 접근해 규칙성, 문자열 등에 기반해 문장을 만드는 첨단 기 술 표절 시스템이다"라고 말하기도 했습니다. 이런 입장은 챗 GPT가 인간의 언어모델과 인간 사고방식의 일부를 들여다보 았을지도 모르겠다고 하는 해석과는 정반대 편에 서 있습니다. 얀 르쿤Yann LeCun 이라는 세계적인 AI 학자는 "거대언어모델은 인간 수준의 인공지능으로 향하는 고속도로에서 옆길로 새버 린 것"이라고 말했습니다. 인공지능이 인간의 지능을 넘어서 는 지점을 특이점singularity 이라고 하는데, 거대언어모델로는 절 대로 가지 못한다는 것입니다. - 사람들은 GPT-3와 같은 거대언어모델이 무엇을 할 수 있는지에 대해 아주 비현실적 기대를 갖고 있다. GPT-3는 세계가 어떻게 돌아가는지 전혀 알지 못한다. ............... 다시 말하는데, 사람들과 교류하기 위해서는 명료하게 훈련된 다른 접근법이 더 낫다. 언어모델을 확장해서 지능적 기계를 만들려는 것은 고공비행기로 달에 가려 하는 것과 같다. 고공비행기로 고도비 행 기록을 깰 수는 있으나 달에 가는 것은 완전히 다른 접근법을 필요로 한다. - 세계적인 SF 소설가 테드 창Ted Chiang은 <뉴요커>에 실은 글에서 "GPT는 웹의 흐릿한 JPEG다"라고 말했습니다. 그의 글은 아주 흥미롭습니다. 원문을 읽어볼 것을 권합니다. 글의 일부를 소개합니다. 챗GPT는 웹에 있는 모든 텍스트를 흐릿하게 처리한 JPEG 이라 고 생각하면 됩니다. JPEG가 고해상도 이미지에 관한 많은 정 보를 가지고 있듯이 챗GPT는 웹상의 많은 정보를 보유합니다. 그러나 비트의 정확한 순서 (sequence)를 찾으려 한다면 결코 찾을 수 없습니다. 당신이 얻을 수 있는 모든 것은 근사치일 뿐입니다. 이 근사치는 문법에 맞는 텍스트의 형태로 제공됩니다. 챗 GPT는 이를 생성하는 데 탁월하기 때문에, 전반적으로 읽을 만 합니다. 당신은 여전히 흐릿한 JPEG를 보고 있지만, 흐릿한 부 분이 사진 전체의 선명도를 떨어뜨리지는 않습니다. 손실 압축에 대한 이러한 비유는 웹에서 찾은 정보를 다른 단어 를 사용해 재포장해내는 챗GPT의 특성을 이해하는 방법에만 적용되는 게 아닙니다. 이 비유는 챗GPT와 같은 거대언어모델 에서 발생하기 쉬운 '환각(Hallucination)'이나, 혹은 사실에 근거한 질문에 터무니없는 답변을 내놓는 것을 이해하는 방법이기도 합니다. 이러한 환각은 제록스 복사기에서 잘못 생성된 레이 블과 마찬가지로 압축 풍화로 발생한 것입니다. 그러나 환각은 원본과 비교해서 확인해야 알 수 있을 만큼 그럴듯하게 보입니 다. 웹상의 실제 정보나 세상에 대한 우리의 고유한 지식과 비교 해야만 진위를 확인할 수 있습니다. 사실이 이렇다면 환각은 결 코 놀라운 것이 아닙니다. 원본의 99퍼센트가 폐기된 후 텍스트 를 재구성하도록 설계된 압축 알고리듬이라면, 생성된 텍스트의 상당 부분이 완전히 조작될 것으로 예상해야 합니다.
- 늘 잘 먹히는 대표적인 프롬프트들은 다음과 같습니다. "차근차근 생각해보자"처럼 단계적 추론을 유도하는 말을 덧붙이거나, "네가 ᄋᄋᄋ (예: 생물학자, 변호사, 마케터・・・・・・ 라고 가정하자처럼 역할을 부여하거나, "ᄆᄆᄆ를 표로 만들어줘"처럼 포맷을 지정하거나, "△△△를 요약하고 가장 중요한 것 여섯 가지를 나열해줘"처럼 구체적으로 일을 지정할 때 좋은 결과가 나옵니다.
- 말하기와 생각하기는 다르다 MIT의 인지과학자 안나 이바노바와 카일 마호월드 등은 말하 기와 생각하기가 다르다는 점에서 거대언어모델의 한계를 지 적합니다. 13 '언어'와 '사고'는 분리돼 있어서, 언어를 통한 의 사소통과 사고 행위는 서로 다른 일이라는 것입니다. 이들이 제시하는 증거는 이렇습니다. 수십 개의 언어를 사용하는 사람들의 뇌를 스캔한 결과, 언어 (나비어나 도트라키어 같은 발명된 언어 포함)의 종류와 무관하게 작 동하는 특정 뉴런 네트워크가 발견되었습니다. 이 뉴런 네트워크는 수학, 음악, 코딩과 같은 사고 활동에는 관여하지 않았습 니다. 또한 뇌 손상으로 인해 언어를 이해하거나 산출하는 능 력이 상실된 실어증 환자 중 상당수는 여전히 산술 및 기타 비 언어적 정신 작업에는 능숙합니다. 이 두 가지 증거를 종합하 면 언어만으로는 사고의 매개체가 아니며, 언어가 오히려 메신 저에 가깝다는 것을 알 수 있습니다. 실제로 우리는 생각을 말 로 표현할 수 없는 경험을 종종 합니다. 이들은 언어의 형식적 역량과 기능적 역량을 구분합니다. 주어진 언어의 규칙과 패턴에 대한 지식을 포함하는 것이 '형식 적 언어 능력'이라면, 실제 세계에서 언어를 이해하고 사용하 는 데 필요한 여러 가지 인지 능력을 '기능적 언어 능력'이라고 부릅니다. 이들은 인간의 형식적 역량은 특수한 언어 처리 메 커니즘에 의존하는 반면, 기능적 역량은 형식적 추론, 세계 지 식, 상황 모델링, 사회적 인지 등 인간의 사고를 구성하는 여러 언어 외적 역량을 활용한다는 사실을 인지 신경과학의 증거를 바탕으로 보여줍니다. 요컨대 거대언어모델은 언어에 대한 좋 은 모델이지만, 인간 사고에 대해서는 불완전한 모델이라는 것 입니다. - 이런 차이 때문에 '형식적 언어 능력'이 필요한 과제에서는 거 대언어모델이 인상적인 성과를 보이지만, '기능적 능력'이 필 요한 많은 테스트에서는 실패한다는 것입니다. 이들은 (1) 현재의 거대언어모델은 형식적 언어 능력의 모델로서 진지하게 받아들여야 하며, (2) 실제 언어 사용을 마스터하는 모델은 핵심 언어 모듈뿐만 아니라 사고 모델링에 필요한 여러 비언어적 인지 능력을 통합하거나 추가 개발할 필요가 있다고 주장 합니다 - 우리가 챗GPT에 열광하게 된 또 다른 이유는 이것이 사상 최초로 사람이 평소에 쓰는 말(자연어 Natural Language)로 기계와 대 화할 수 있게 만들어주었기 때문입니다. 즉, 처음으로 나타난 자연어 인터페이스라는 것입니다. 이전까지 우리는 컴퓨터와 대화하려면 C++, 자바, 파이썬과 같은 컴퓨터 랭귀지(기계어 Machine Language)를 따로 배워야 했습니다. 그런데 드디어 사람 에게 하듯이 자연어로 컴퓨터에게 일을 시킬 수가 있게 된 것 입니다. - 앞서 챗GPT는 잠재된 패턴이 있는 일을 잘한다고 했지요? 거대언어모델의 경우 어마어마한 양의 정제한 데이터를 가지고 100일 안팎의 학습을 해야 합니다. 그 러니 학습이 시작된 이후의 최신 정보들에 대해서는 지식이 없 습니다. 배우지 못한 것이지요. 그래서 최신 뉴스에 대한 답변 을 잘하지 못합니다. 숫자 계산에도 약하고요. 그런데 챗GPT 가 계산기를 쓰고, 검색엔진을 쓸 수 있게 된다면 어떨까요? 즉, 도구를 쓰게 된다면 어떻게 될까요? 실제로 그런 일이 일어났습니다. 오픈AI가 내놓은 플러그인 Plug-ins이 바로 챗GPT가 도구를 쓸 수 있도록 해준 것이죠. 우 리가 챗GPT에게 일을 시키면, 챗GPT가 플러그인된 프로그 램들을 불러다 일을 시킨 후 그 결과를 다시 사람에게 전달합 니다. 거대언어모델 인공지능이 사람으로부터 할 일을 받으면, 그 일 을 몇 개의 서로 다른 작은 일로 나눌 수 있을 겁니다. 그러고 는 각각에 맞는 도구, 즉 소프트웨어나 서비스를 찾아서 그 일 을 수행합니다. 결과가 나오면 그 결과를 모아서 다시 일을 시킨 사람에게 보고하게 됩니다. 그러니까 사람으로부터 일을 받는 에이전트, 그 일을 여러 개의 하위 일로 나누는 에이전트, 각각의 일에 가장 적합한 소프트웨어나 서비스를 찾는 에이전 트, 이런 도구를 써서 일을 수행하는 에이전트, 결과들을 다 모으는 에이전트, 정리해서 사람에게 보고하는 에이전트 등 등 이렇게 스스로 역할을 여러 개로 나누어 수행하면 되는 것 이지요. - 챗GPT와 GPT-4도 API를 공개했습니다. 세상의 모든 소프트웨어 회사들이 이것을 통해 GPT와 GPT-4를 쓸 수 있게 된 것이지요. 물론 돈은 내야 합니다. 챗GPT가 바깥의 도구를 가져다 쓰는 게 플러그인이라면, API 는 바깥의 프로그램과 서비스들이 GPT 혹은 GPT-4를 가져 다 쓸 수 있는 것이지요. 이것으로 어떤 일을 할 수 있을까요? 마이크로소프트가 자신들의 오피스 프로그램에 GPT-4의 API를 연결했습니다. 이렇게 함으로써 사용자들은 워드를 쓰다가 자신의 문서를 떠나지 않고도 챗GPT에게 자신이 쓸 주제에 맞 게 목차를 만들어달라는 요청을 할 수 있게 됩니다. 목차가 나 오면 의도에 맞게 고친 다음, 목차대로 내용을 채워달라고 요 구할 수도 있습니다. 엑셀을 쓰는 중이라면 엑셀을 떠나지 않 고도, 엑셀에서 챗GPT에게 입력한 표를 읽고 5개년의 영업이 익률 그래프를 그려달라고 요청할 수 있습니다. 그러니까 브라 우저를 열고 키워드를 입력하고, 그래서 나온 값을 복사해서 워드나 엑셀에 옮겨 담고 하는 작업들이 한번에 사라진 것입니 다! 엄청 편해진 것이지요.
- 게리 마커스의 다섯 가지 걱정 제프리 힌턴, 스튜어트 러셀 등 많은 인공지능 과학자들이 드 디어 공개적으로 경고하기 시작했습니다. 신경과학자인 게리 마커스Gary Marcus는 이런 상황과 관련해 다음과 같은 다섯 가지 우려를 밝혔습니다. 1. 극단주의자들이 어마어마한 허위 정보를 생성해 민주주의와 공론을 쓸어버릴 것이다. 2. 환각은 잘못된 의료 정보를 생성할 것이다. 3. 콘텐츠 팜(content farm)들이 광고 클릭을 위해 사실과 상관 없는 자극적인 내용을 생성할 것이다. 4. 챗봇은 일부 사용자들에게 감정적인 고통을 유발할 수 있다. 5. 남용으로 인해 웹 포럼과 피어리뷰 (peer review) 사이트를 붕 괴시킬 것이다.
- 스택오버플로(stackoverflow.com)라는 사이트가 있습니다. "모든 개발자는 스택오버플로 탭을 열어두고 있습니다"라는 캐치프 레이즈를 자랑하는 곳입니다. 전 세계의 개발자들이 개발을 하 다 궁금한 게 생기거나 막힌 곳이 있으면 물어보고 답하는 게 시판입니다. 개발자를 위한 네이버 지식인과 같은 곳이지요. 챗GPT가 발표된 뒤 이 스택오버플로의 방문자 수가 급감하기 시작했습니다. 2022년 12월 한 달 새 12퍼센트나 떨어져 버린 것입니다. 이런 추세는 계속 이어져 2023년 3월에도 13.9퍼센트가 떨어졌습니다. 개발자들은 이제 스택오버플로에서 질문하고 답을 찾는 대신 챗GPT에게 코드를 짜달라고 바로 요구하기 시작했습니다. 커뮤니티 구성원들이 주어진 코딩 질문에 대해 다양한 답변을 게시하고, 장점과 단점에 대해 토론하고, 투표를 통해 최고의 솔루션을 선정하는 것이 스택오버플로의 전통이었습니다. 훌 륭한 공동체였지요. 거의 모든 개발자들이 한두 번쯤은 스택오 버플로에 올라온 코드를 그대로 복사해 사용한 적이 있었을 겁 니다. 그런 공동체가 무너지고 있습니다. 문제는 챗GPT가 프로그래밍을 학습한 대상이 바로 이 스택오 버플로였다는 겁니다. 온라인 코드 저장소인 깃허브GitHub와 스 택오버플로는 인공지능이 개발 공부를 하기 가장 좋은 두 개의 사이트였습니다. 그렇게 공부한 챗GPT가 스택오버플로의 트 래픽을 빼앗아가고 있는 것입니다. 우리는 인공지능이 또 하나 의 오리지널을 무너뜨리는 장면을 보고 있습니다.
- 미디어는 메시지입니다. 새로운 미디어는 돌이킬 수 없이 분명 하고 근본적인 변화를 지시합니다. 인류는 소셜미디어의 출현 에 제대로 대응하지 못했습니다. 페이스북이 알고리듬을 바꾸 자전 세계의 정치가 출렁였습니다. 곳곳에서 포퓰리즘이 기승 을 떨칩니다. 미국에선 소녀들의 자살률이 두 배로 뛰어올랐습 니다. 지금도 미국 10대들의 자살률은 계속해서 오르고 있습니다. 한국에선 독점적인 포털사의 광고 수익을 배분하는 알고 리듬 하나가 언론사 보도를 통째로 망치고 있습니다. 이 사실 을 모두가 알고 있지만 누구도 해결책을 내놓지 못하고 있습니 다. 인스타그램은 여전히 에코 챔버(반향실, 자신이 원하는 정보만 보게 됨으로써 인지편향이 확대 강화되는 현상)와 필터 버블(필터는 추천 알고리듬을 뜻합니다. 사용자가 시스템이 보여주는 정보만 보게 되는 게 마 치 추천 알고리듬의 거품에 갇힌 모양과 같다고 해서 붙은 이름)의 본향이고, 한국 신문들은 변함없이 해외 황색지를 베껴 올립니다. 인공지능은 소셜미디어에 비할 바 없이 위력적입니다. 발전 속 도도 인류 역사상 이런 기술이 있었을까 싶을 정도로 빠릅니 다. 오죽하면 생물종이 폭발적으로 나타났던 캄브리아기에 빗 대어 요즘을 인공지능의 캄브리아기라고 부르기도 합니다. 이 치명적인 미디어 앞에서 인류는 또 한 번의 실패를 경험해야 하는 것일까요?