- 방적기 때문에 해고된 노동자들이 밤에 공장에 잠입해 방적\기를 때려부순 운동이어서 흔히 러다이트 운동을 '기계 파괴 운동'으로 부르기도 한다. 실상은 다르다. SF 작가 테드 창은 2023년 <뉴요커>에 기고한 칼럼에서 러다이트를 단순한 반기술 운동이 아니라 경제 정의를 위한 사회 운동으로 소개한다
러다이트는 기계를 무차별적으로 파괴하지 않았고, 기계의 소유주가 노동자에게 충분한 임금을 지급하면 기계를 내버려 두었습니다. 러다이트는 기술에 반대하는 것이 아니라 경제적 정의를 윈했습니다. 그들은 공장주들의 관심을 끌기 위해 기계를 파괴했습니다. '러다이트'라는 단어가 비이성적이고 무지한 사람을 부르는 모욕적인 표현으로 사용되는 것은 자본의 세력에 의한 명예훼손 캠페인의 결과입니다.
- 가장 먼저택시의 외관을 보면, 전에는 없던 광고판이 택시의 천장 위에 올라가 있다. 이러한 광고판의 목적은 두 가지다. 하나는 광고판 본연의 기능대로 광고를 송출하는 것이고, 다른 하나는 광고판 내부에 장착된 센서를 통해 주변의 길거리 데이터를 수집하는 것이다. 미세먼지 농도, 거리에 오가는 사람들 수, 특정시간대의 조도 같은 데이터를 센서로 실시간으로 수집하고 데이
터를 AI 기술을 통해 정제하여 서버에 저장한다.
택시 내부에는 뒷좌석에서 잘 보일 수 있도록 태블릿PC가 부착되어 있다. 이 중 특정 제조사의 태블릿PC는 승객이 탑승했는지를 인식하고, 승객을 인식하여 성별에 따라 맞춤형 광고 혹은 영상 등을 노출한다. 그 외에도 택시를 부르는 일들도 AI 배차 시스템을 이용한다. AI 배차 시스템은 입 사용자가 택시 호출 버튼을 누르면 AI가 기존 데이터를 기반으로 택시 기사를 추천하고, AI를 통해 추천된 기사군에 사용자가 보낸 콜을 보내 기사의 수락 여부를 확인하는 형태로 설계되었다.
택시에 적용된 AI 기술들을 살펴보면 이 기술들이 기업이 소비자에 대해 더 많은 데이터를 수집할 수 있는 경유지로서 작동하고 있음을 이해할 수 있다. 더불어 AI 배차 시스템은 객관적인 듯하지만 궁극적으로 택시 기사들을 효율적으로 관리'하는데 이용된다. 수락률이 높은 택시기사들이 추천군에 올라가므로 택시기사들은 콜수락을 자율적으로 관리하기보다 일단 수락할 수 밖에 없는 상태에 놓이게 되는 것이다. 실제로 택시 기사들의 온라인 커뮤니티에서는 "AI 알고리즘의 비위를 조금이라도 상하게" 하면 콜수가 줄어든다는 하소연을 쉽게 접할수있다.
- 물론 개개인의 삶을 보다 편리하고 효율적으로 만드는 AI도 있다. 예를 들어 마이크로소프트에서는 자체 AI인 코파일럿을 노트북에 탑재한 코파일럿플러스PC를 선보였다. MS의 노트북 브랜드인 서피스(Surface)에서만이 아니라 삼성과 델 등 기타 제조사에서 내놓은 노트북 중에서도 코파일럿이 접목된 제품을 만나볼 수 있다. 이러한 노트북에서는 "어제 내가 보낸 메일 찾아줘"처럼 두루뭉술한 질문을 던져도 원하는 메일을 손쉽게 찾아준다고 한다. 파일명이 생각나지 않아 머리를 쥐어뜯는 일이 없도록, 그 모든 것을 AI가 대신 기록하고 저장하여 발견하기 쉽게 도와준다는 것이다.
그러나 여기에도 양면성이 있다. 코파일럿플러스PC가 그런 기능을 수 있는 이유는 사용자가 노트북에서 취하는 모든 액션을 전부 데이터로 기록하기 때문이니까. 실제로 해외 커뮤니티에서는 이러한 기능 때문에 사생활 침해의 소지가 있다며 코파일럿품러스PC를 사용하지 않겠다는 비판이 줄을 이었다.
- 물론 AI가 모든 업무 현장에 딱 맞는 퍼즐 조각인 건 아니다. 글로벌 컨설팅사 베인앤컴퍼니에서는 2024년 6월, 생성형 AI를 사용했던 응답자들이 기대치 대비 실제 성과가 어떠했는지 응답한 결과를 발표한 바 있다. 소프트웨어 프로그래밍, 영업, 고객 응대 등 몇몇 분야에서는 AI 서비스를 업무에 사용하는 것이 기대보다 더 좋았다고 응답했지만 그렇지 않은 분야도 많았다. 특히 조직 운영, 인사(HR), 법률 관련 직무에서는 유난히 서비스가 기대치에 미치지 못했고, 기대치와 성과 사이의 격차도 매우 큰 것으로 집계되었다
이 결과에는 직무의 특성이 반영되어 있다. 조직 운영, 인사, 법률 관련 직무의 구체적인 특징은 조직원 혹은 고객, 특정한 사건처럼 구체적인 대상과 그 맥락을 이해하는 것이 선행해야 하는 직무다. 인사만 보더라도 어떤 사람을 어떤 팀에 배치할지, 어떤 팀장과 팀원을 매칭했을 때 가장 성과가 좋을 것 같은지 파악해야 하는데 이런 업무를 AI가 하려면 해당 인원들의 특징과 성격 등을 자세히 알아야만 한다. 무엇보다 조직원을 그러한 데이터로 치환하는 일 자체가 어렵기도 하다.
생성형 AI 서비스는 일반론적인 차원에서 가장 적합해 보이는 대답을 곧잘 생성하지만 개개인의 특정하고 구체적인 맥락을 정확하게 파악하지는 못한다. 소프트웨어 개발 같은 분야는 .에러메시지와 그 해결에 대한 것들이 상대적으로 일반적인 규칙성에 따르고, 그렇기 때문에 생성형 AI에 대한 도입 효과가 다른 것보다 더 나은 것이라는 사실을 이해할 수 있다.
- 만화, 소설 같은 서사 작품 안에서 종종 기술은 마법으로 비유되곤 한다. 한번은 애니메이션 <하울의 움직이는 성)을 보다가 마법사 하울이 마법에 관해 설명하는 장면에서 무릎을 탁 쳤다.
하울은 이렇게 말한다.
"마법 덕분에 이 왕궁에는 적군의 포탄이 떨어지지 않아.그 폭탄은 대신 옆 마을에 떨어지지. 마법이란 그런 거야."
여기'가 안전한 대신 '저기'가 위험해지는 것. IT 전반이 아니라 오로지 AI만 보더라도 이와 같은 일들을 금세 발견할 수 있다. 이를테면 <타임>에서 2023년 1월 보도한 기사에서는 첫GPT가 사용자들에게 친절하고 매너 있는 메시지를 내보내기 위해 케냐, 우간다 등지의 노동자들이 시간당 2달러도 안 되는 돈을 받으며 폭력적인 메시지를 걸러내는 작업을 했다는 사실을 밝혀냈다. 첫
GPT가 내밸는 폭력적인 텍스트들을 빠짐없이 읽고 검수했던 노동자 중 한 명은 인터뷰에서 그 작업은 그야말로 고문이었다고 언급했다. 챗GPT를 사용하는 이들의 장소가 안전한 대신 일하는 이들이 대신 위험에 처하는 상황, 하율이 말하는 마법 그 자체다.
- AI 기술이라고 하면 머신러닝 알고리즘을 활용한 기술을 전반을 이야기한다. 아서 새뮤얼에 의하면 머신러닝은 '사람이 하나하나 코드를 작성하여 명시적으로 지시하지 않아도 대량의 데이터 속에서 폐턴율 학습하여 실행할 수 있는 알고리즘'이다. 그중에서도 딥러닝 기술이 알파고 이후 점차 확산되어 다른 머신러닝 알고리즘이나 AI 기술을 개발하던 분야들이 모두 딥러닝 방법
론을 활용하는 방향으로 발전하게 되었다. 그런 과정에서 전통적인 방식의 개발 방법론을 활용하던 분야들에도 AI 기술이 도입되는 사례 또한 늘어났다.
바꾸어 말하면 기존에 다루어온 방법론이나 접근론 자체가 바뀌는 경험을 공통적으로 할 수밖에 없었다. 사실 이런 변화는 핑장히 이질적이다. 어느 분야든 각 학문의 체계에 따라 발전해 온 연구 방법론이 존재하는데 한순간에 특정한 방향으로 인접 학문의 모든 방법론이 집중되는 것은 평장히 특이한 현상이라고 볼수 있다. 이러한 상황에서 단기간에 질 좋은 교육 과정을 설계하
고 자격을 갖추기는 어려운 일이다.
- 언어를 기반으로 인공지능 알고리즘을 다루는 사람들에게 2018년은 특별한 해로 기억된다. 오픈AI가 GPT-1을 처음으로 공개한 해이면서, 현재의 첫GPT 시대를 만든 흥미로운 아이디어들이 태동한 시기이기 때문이다.
챗GPT의 T, 트랜스포머(Transfomcr) 모델에 대한 아이디어는 이보다 빠른 2017년 6월에 공개되면서 이 황금기의 서막을 열었다. '어텐션이 전부다'라는 패기 넘치는 제목을 단 논문은 구글의 딥러닝 기반 번역기에 사용된 알고리즘을 세상에 알렸다. 알고리즘을 구성하는 어텐션 합수를 이용한 트랜스포
머 구조는 다양하게 변주되면서 거대 언어 모델의 신호탄이 되었다. 이 논문은 2025년 1월 기준으로 15만 회 가까이 인용되면서, AI 기술에 입문하는 사람들에게 성경처럼 읽히고 있다.
2018년 2월, 엘모라는 언어 모델이 사전 학습된 언어 모델을 사용하는 아이디어를 제안해 돌풍을 일으켰다. 사전 학습이라는 개념이 생기기 전의 기계 학습 알고리즘은 하나의 문제를 풀기 위해서 그 문제만을 위한 학습을 진행했다. 요약을 하는 모델은 요약만 할 수 있고 번역을 하는 모델은 번역만 할 수 있었다.
그런데 사전학습 모델은 사전에 엄청나게 큰 모델을 한번 학습한 뒤에 풀고자 하는 문제를 위한 추가 학습을 시키면 하나의 모델이 번역도 하고 요약도 할 수 있다는 것을 보여주었다. 한 번 학습을 하여 하나의 모델을 만드는 데 상당히 많은 자원이 들기 때문에 이를 절약할 수 있는 획기적인 아이디어였다.
- AI 산업은 태생적으로 많은 자원을 필요로 한다. 실험적으로 모델을 한번 학습하는 비용만 적게는 몇 백만 원에서는 많게는 몇백억 원이든다. 모델을 학습하기 위해서 필요한 컴퓨팅 자원이 고가이기 때문이다. 그중에서도 많은 양의 계산을 동시에 수행할수 있는 GPU가 필수적인 장비인데,GPU 시장의 98퍼센트를 점유하고 있는 엔비디아"의GPU 제품 중H100은 한대에 최대6천만 원이고 보통 여덟 대를 묶어서 하나의 서버로 사용한다.서버를 만드는 데는 GPU뿐 아니라 다른고성능 컴퓨팅 장비가 필요하다. 서버 하나를 갖추는 데 4-5억 원 이상이 들어가는 셈이다. 이러한 서버를 수천 대 구축하여 몇 주간 가동해서 모델을 만든다. 이렇게 대규모 장비를 가동하는 데는 그만큼 큰 서버를 관리할 수 있는 데이터센터가 필요하고, 데이터센터를 운용하는 전기, 여기 드는 돈도 막대하다. 한 번 학습해서 성공적인 모델이 나오는 것이 아니므로 여러 번 학습을 거치면 쉽게 1억 원 넘는 비용이 사라진다. 장비를 직접 구입하지 않고 클라우드 서비스를 이용해 대여해서 사용하는 경우라면 시간당 과금을 기반으로 요금이 부여되기 때문에 계약된 기간 동안 실시간으로 비용이 타고 있다'는 압박을 지울 수 없다.
단순히 모델을 만드는 데서 그치지 않는다. 실제 제품으로 만들기 위한 테스트를 하다 보면 제품 개발에 들어가는 비용만 몇억에서 수십억 원이 예사로 들어간다. 책GPT를 개발한 오픈AI는 2020년 신경망 언어 모델의 확장 법칙 '이라는 논문을 공개했다. 이 논문을 통해 모델 크기, 데이터셋 크기, 계산량을 증가시킬수록 모델의 성능이 향상된다는 것을 보여주었다. 그럼에도 불구하고 비용을 태워가면서 모델과 데이터셋을 키우는 데 투자하는 것은 무모해 보였다. 기술은 모델의 크기를 줄여서 학습이나 추론에 들어가는 비용을 줄이기 위한 방향으로도 발전하고 있었다. 그러나 크기를 줄이면 당연히 성능이 하락했고, 그 중간 지점을 찾아가면서 고객을 만족시킬 수 있는 서비스를 만드는 것은 모두 도전적인 과제였다. 모델의 발전은 계속 일어나고 있으나 이를 서비스화 하는 작업은 교착 상태에 빠져 있었다.
'과연 언어 모델이 상용 가능할까?' 내 안에서 이런 의문이 생겨나고 있을 때 겠GPT가 공개되었다. 셋GPT는 확신을 가지고 모델 구조는 변경하지 않은 채 순수하게 데이터와 모델의 크기를 키워서 압도적인 성능을 보여주었다. 이를 목도한 AI를 다루는 회사들은 모두 모델의 크기를 키우는 데 몰두하기 시작했다.
- 이러한 현상의 핵심에도 역시 '더크면 더 좋다'라는 단순하면서도 강력한 믿음이 자리 잡고있다. 더큰모델은 더 많은 데이터를 처리하고, 더복잡한 패턴을 인식할수 있으며, 결과적으로 더 뛰어난 성능을 보여줄수 있기 때문이다. 챗GPT가 보여준성공은이러한 믿음을 더욱 강화했고,기업들은경쟁에서 뒤처지지 않기 위해더큰모델 개발에 박차를 가했다.
오픈AI의 대항마인 앤트로픽의 CEO는 모델 훈련 비용이매년 기하급수적으로 늘고 있다고 밝혔다. 최근 공개된 모델은 1억달러가 들었고, 현재 훈련을 진행하고 있는 모델은 열 배인 10억달러까지 훈련 비용이 치숯았다는 사실을 공개했다. GPU가 3만개 이상 들어간 GPT-4도 1억 달러 이상 비용이 사용되었을 것으로 추정된다." xAI의 CEO 일론 머스크는 2025년까지 10만 개의
GPU 클러스터를 구축하겠다고 밝혔다. 엔비디아의 최신 GPU가 새로 공개될 때마다 개당 3-4만 달러대에서 판매되며 시장 상황에 따라 그 이상의 가격으로 유통되기도 한다. 웬만한 기업은 GPU를 확보할 예산도 마련하기 힘든 상황이다.
이처럼 비대해지는 모델의 크기는 아주 극소수의 플레이어만 이 게임에서 살아남을 수 있도록 하는 장치가 된다. 실패에 대한 비용이 커질수록 도전이 어려워지고, 도전이 어려워지면 당연히 창의적인 해결책이 나오기는 어럽다.
- 이렇게 파워풀한 성능을 보여주는 모델은 사실 엄청나게 단순한 방식으로 답변을 생성한다. 텍스트나 이미지가 입력되면, 입력된 정보는 모델이 이해하고 계산할 수 있는 형태로 변환된다. 그리고 그 입력을 바탕으로 다음에 어떤 단어가 올 확률이 높은지를 계산해서 출력한다. 이 작업을 단순히 반복해가는 방식으로 답변을 생성한다. 이 때문에 전 구글 연구원인 팀닛 게브루sms GPT -3 같은 언어 모델을 '확률적 앵무새'라고 명명하기도 했다. 앵무새가 사람의 말을 따라하지만 그 뜻을 모르는 것과 같이 언어 모델도 실제 이해를 바탕으로 문장을 생성하는 것이 아니라 확률적으로 단어를 연속하여 생성할 뿐이라는 의미다. 이 단순한 방식에도 불구하고 모델의 크기가 압도적으로 커지자 놀랍도록 자연스러운 발화를 생성했다. 문법적으로 자연스러운 문장을 생성하는 것을 넘어서서 유용한 지식을 체계적으로 구조화한 텍스트를 만들어냈다.
- 민지가 AI의 도움을 받을 수 있었던 부분은 크게 두 가지였다. 첫 번째는 디자인의 전체적인 방향성을 정하거나 새로운 콘셉트를 제안하는 등의 '기획', 두 번째는 기존에 게티이미지뱅크같은 유료 이미지 사이트에서 구매하여 사용하던 이미지를 만들어 쓸 수 있는 '재료'. 기획의 영역에서는 챗GPT와 미드저니를 모두 사용했다.
먼저 챗GPT에게 개발하고자 하는 서비스의 개요를 전달하고, 그 서비스에 적합한 디자인 레퍼런스를 검색하거나 검색한 레퍼런스를 기반으로 새로운 디자인 콘셉트를 짜보라고 한다. 그리고 선정한 디자인 콘셉트를 기반으로 미드저니에서 이미지를 생성할 수 있도록 미드저니 프롬프트에 넣을 명령어까지 만들어 달라고 요청한다. AI를 통해 또 다른 AI 서비스의 명령어를 만들어 내는 것이다.
예를 들어 우리가 어떤 연령대의 사람들을 대상으로 특정한 서비스를 만들고 싶다고 챗GPT한테 얘기하는 거죠. 그리고 콘셉트를 만들어보라고요. 그러면 겠GPT가 콘셉트를 여러 개 제시하는데, 그중 몇 가지를 골라서 다시 기획을 더 발전시켜보라고해요.그렇게 하나를 선택한 후미드저니 명령어까지 만들어
달라고 하면 콘셉트에 적합한 이미지가 생성돼요."
콘셉트를 만드는 방식은 꽤 효율적이었다. 그러나 디자인의 재료가 되는 이미지를 만드는 일은 디자이너의 부담이 경감된다고 보기 어려웠다. 전에는 적합한 이미지를 찾는 게 일이었다면, 이제는 내가 원하는 방식으로 이미지를 만들기만 하면 되는데도 시간은더오래 걸렸기 때문이다.
기존에 스톡 이미지를 많이 썼거든요. 주로 게티이미지뱅크 같은 곳에서 구매했어요. 그런데 이제 필요한 이미지를 찾고 구매하느라 시간을 들이는 대신 이미지 생성 AI로 필요한 이미지를 만들어서 쓰는 거죠. 기존 유료 이미지 사이트에서는 원하는 이미지를 딱 찾기 어려우니까 원하는 걸 만들 수 있다는 점에서는 좋은데.... 이게 엄청나게 효율이 좋은가 하면 또 그렇다고 말하기가 애매한 게, 원하는 대로 잘 나오진 않거든요. 구글에서 검색하면 한두 시간이면 찾을 거를 이미지 생성 AI를 서너 시간씩 붙잡고 이미지를 계속 만들고 수정하게 되더라고요."
그림을 그리지 않아도 그림을 얻을 수 있다는 장점은 있었지만(그래서 이들은 생성형 AI를 통한 이미지 제작 작업을 말할 때 이미지를 '뽑는다'고 말한다), 지시한 방향과 다른 결과가 계속해서 도출되었기에 일러스트를 미세하게 수정하는 데서 민지는 난항을 겪었다.
결과적으로 AI만으로 백 퍼센트 작업을 하는 전 무리가 있었어요. 현재 기술 수준으로는 아직 사람이 후반 작업에 좀더 투입되어야 하기도 하고, 당장 실무에 쓸 수 있는 그래픽이 적기도 했고요. 3D 이미지는 정말 잘 만들더라고요. 그런데 아이콘은 디테일이 너무 떨어지고 글자도 다 뭉개져서 다시 새로 작업을 해야 돼요."
디자인 영역에서 AI 서비스를 활용하는 데는 퀄리티만이 아니라 여러 난관이 남아 있었다. 하나의 서비스 안에서 일관된 디자인 톤을 유지해야 하는 UI/UX 디자인 특성상 새로운 디자인요소를 만들려면 기존 디자인을 참고하여 전체적인 통일감이 깨지지 않도록 작업해야 한다. 이런 작업을 AI 서비스로 수행하려면 기존 디자인 작업물을 참고 이미지로 사용할 수 있도록 AI 서
비스에 업로드해야 한다. 그런데 이 과정에서 디자인 작업물 보안이 침범될 수 있다.
"실제로 작업하는 서비스를 AI에 넣는 건 불가능했어요. 보안 이슈가 켰거든요. 이 이미지들을 AI에 올리면 그쪽(AI 서비스를 제공하는 회사) 서버에 한 번 들어갔다 나오는 거니까요."
- 국내 개발자 커뮤니티 중 하나인 프로그래머스에서 개발자를 대상으로 실시한 설문조사에서는 경력 개발자 69.2퍼센트가 '스스로의 전문성 부족을가장큰 고민으로 꼽았다고 한다. 이미 경력이 있는 데다 계속 현업 전선에서 일하고 있는 개발자들의 고민이 전문성 부족'이라는 건어쩐지 의미심장하다 개발, 그러니까 현업의 일 그자체만으로는 개발자의 전문성이 보장되지않는다는뜻이니까.
사실 현장에서는 기술력 그자체보다 눈앞의 일을 당장 처리할수있는 능력을 더 요구한다 난도가 높은 알고리즘을 짜거나 최신 개발 언어를 사용하는 일말고 이미 누군가가 만들어놓은 코드를 짬짬이 고치는 일말이다. 이런 상황에서 개발자들은 자신의 기술력이 하락한다고느낀다. 그래서 대다수 개발자들이 퇴근후자신의 전문성'을 위해 높이기 다시 공부를 하는 것이다.
그러니 전문성이란 애를 써도 결코 닿을수 없는 먼 하늘의 별처럼 여겨지기도 한다. 그러나 한편으로 개발에서의 전문성이란 더 복잡한 면면을 고려해야 한다. 개발에도 '구독형 서비스'가 상당히 많이 출시되었기 때문이다. 이전에는 데이터베이스를 하나 구축하려면 서버를 직접 구매/ 대여해서 데이터베이스를 설치하고, 일일이 설정을 해주어야 했다. 그러나 지금은 데이터베이스도 '클라우드'에 있다. 구글 드라이브를 월 결제하여 서비스를 구독하듯, 데이터
베이스도 파이어베이스 같은 서비스를 돈을 내고 사용하면 된다. 데이터베이스를 어떻게 설치해야 하는지, 어떤 설정이 필요한지 알지 못하더라도 서비스와 연동하는 법만 잘 이해하면 데이터베이스를 뚝딱 만들어 쓸 수 있다. 이전에는 개발자의 기술에 기대야 했던 '전문성'이 이제 돈으로 지불하면 그만인 서비스가 된 것이다.
- 사람들은 이제 스택오버플로우가 아니라 챗GPT에게 물어본다. 이제 오류가 났을 때 메시지를 붙여넣는 곳은 구글 검색창이 아니라 챗GPT의 프롬프트다. 우리 같은 사람이 한둘이 아니었는지 실제로 켓GPT 출시 이후 스택오버플로우의 게시물 감소량은 어마어마하다고 한다. 약6년간의 감소폭이 챗GPT가 등장한 후 단 6개월 만에 이뤄졌다고 한다." 사용량이 급감한 스택오버플로우에서도 위기감을 느꼈는지 부랴부랴 오버플로우 AI를 출시했지만 아직 이렇다 할 성과를 내지는 못하고 있는 상황이다.
스택오버플로우의 위기는 여러모로 시사하는 바가 크다. 단지 개발자들이 사용하는 서비스가 바뀐 것 뿐이라고 이해할 수만은 없다. 스텍오버플로우에 게시된 질문과 답변은 다른 사용자들도 누구나 열람할 수 있지만 켓GPT에 남긴 질문은 사용자가 아니라면 아무도 볼 수 없다. 이전에는 나와 같은 오류에서 헤매던 누군가의 기록을 볼 수도 있고 그 아래 달린 답변과 논의를 보면서 뜻밖의 심화 학습을 할 수도 있었지만, 이제는 그런 공론장을 보기 힘들어진 것이다. 이전에는 우리가 묻고 답한 것들이 데이터로 남아 누구든 볼 수 있었지만, 이제 그러한 질답 데이터가 모두 AI 개발사의 소유가 될 것이다.
전문가들은 사람들의 지식이 쌓이고 모이는 열린 공론장이
사라진다면, 짓GPT 역시 학습할 데이터를 찾지 못해 곤란에 빠질 것이라 지적한다. 실제로 챗GPT 출시후 스택오버플로우의 사용량 감소치를 주의 깊게 연구한 논문에서는 결론부에서 다음과 같이 쓰기도 했다.
"언어 모델이 오픈 데이터 생성을 방해한다면, 그들은 미래의 학습 데이터와 효율성 측면에서 그들 자신의 미래마저 제한할 것이다.""
이러한 사실을 알면서도 다시 스택오버플로우로 돌아가기란 여간 어려운 일이 아니다. 챗GPT에 물어보면 1초 만에 받을 수 있는 답변을 스택오버플로우에서는 몇 날 며칠이고 기다려야하기 때문이다. 물론 챗GPT가 늘 옳은 답변을 내는 건 아니다. 그 때문에 오히려 간단하게 풀 수 있는 문제를 돌아가는 일도 생긴다. 스스로 제한될 미래를 만드는 데 동참하고 있다는 사실을 알면서도, 이게 가장 빠른 해결책일지 모른다는 생각에 결국 챗GPT에 접속하고야 만다.
- 전쟁 무기에 AI가 적용되는 사례는 비단 드론에 그치지 않는다. 이스라엘은 전쟁과 관련한 여러 분야에 AI 기술을 훨씬 이른 시기부터 접목하여 사용하고 있다. 2020년 11월 이란의 수석 핵과학자 모센 파크리자데가 총격으로 사망했다. 그를 조준한 건 다름 아닌 이스라엘 정보기관 과사드의 원격 AI 로봇 기관총이었다. 당시 파크리자데는 부인과 함께 차를 타고 이동하고 있었는데 AI 로봇 기관총이 150여 미터 떨어진 곳에서 그의 얼굴을 인식해 그에게만 정확하게 총격을 가했다고 한다. 조수석에 탄 그의 부인은 무사했으며, 암살을 마친 후 해당 로봇 기관총이 설치되어 있던 트럭은 자동 폭파되었다.
이후로도 이스라엘은 이 AI 로봇 기관총을 민간인들이 지나는 팔레스타인 서안 지구 검문소에 설치해 인권 침해 논란이 일기도 했다. 이 로봇 기관총이 핵과학자 암살에 쓰인 것이 2020년, 검문소에 설치된 것이 2022년이다. 첫GPT 서비스가 시작된 게 2022년 10월이니 AI 기술은 일반인들이 일상 속 업무 파트너로 만나기 전부터 이미 전쟁과 국방 영역에서 실제 사용되고 있었음을 알수 있다.
2023년 촉발된 이스라엘-팔레스타인 전쟁에서는 로봇 기관총뿐 아니라 휠씬 더 많은 AI 기술이 사용되고 있다. 이스라엘-팔레스타인 독립 언론지 <+927 매거진> 보도에 따르면 2023년이 전쟁에서 이스라엘군은 AI로 포격 대상을 탐지하고 추천하는 '라벤더', 표적이 된 개인을 추적해 그가 주거지로 들어왔을 때 신호를 보내는 '웨어이스대디' 시스템을 운영하고 있다고 한다. 오탐지율이 10퍼센트에 달하는 이런 무기들을 이스라엘군에 속한 '인간 지휘관'들이 이를 제대로 확인하지 않고 승인하며, 이 때문에 이번 전쟁에서 민간인 사상 비율이 이전에 비해 급증했다는 것이 기사의 요지다. 심지어 포격을 할때 민간인 희생치 수준을 '설정'할 수 있다. 하마스 하급 대원 한 명을 죽일 때 설
정된 민간인 희생치는 15-20명, 하마스 상급 대원 한 명을 죽일때의 희생치는 100명 이상이다."
실제로 20세기 가자 지구 분쟁에서 민간인 사망 비율이 40퍼센트였는데 2023년 10월가자 지구 보복 공습 첫 3주간 민간인사망 비율은 61퍼센트였다." AI를 동원한 전쟁에서 전쟁과 상관없는 사람들이 이전보다 더 많이 죽어가고 있는 것이다.
- 데이터센터는 한정된 수자원을 퍼다 쓰는 주범이자 막대한 온실가스 배출의 윈인으로도 지목된다. 2023년 <한겨레>에서 미국 콜로라도대학의 연구 결과를 소개한 바 있다. 챗GPT에 질문을한 번할 때마다 500밀리리터의 물이 소비된다고 적혀 있었다. 2024년 9월 <가디언>이 내보낸 기사에서는 데이터
센터의 급증으로 온실가스 배출이 증대하고 있으며 메타, 애플, 마이크로소프트 같은 빅테크 기업이 공식적으로 신고한 온실가스 배출량보다 실제 배출량이 662퍼센트가량 더 높을 수 있다고 지적했다. 공식 발표 수치와 실제 배출량이 이토록 크게 차이가 나는 이유는 신재생에너지공급인증서(Rco)에 근거한다. 신재생에너지를 구매하여 사용하고 있다는 인증서가 있으면 공식 배출량을 계산하는 데 그만큼을 감하여 발표할 수 있기 때문이다."
물론 테크 업계에서도 이 문제점을 잘 안다. AI기술을 위해 물과 전기가 어마어마하게 소비되는 만큼 업계에서도 이를 개선해야 한다고 여긴다. 실제로 이를 변화시키기 위한 여러 방안이 시도되고 있다. 대표적인 것이 마이크로소프트에서 진행중인 '나틱 프로젝트'다.이 프로젝트는 데이터센터를 아예 바다에 집어넣는 방안을 실험하고 있다. 수년에 걸쳐 여러 차례 테스트한 결과 냉각수를 절감할 수 있을 뿐만 아니라 풍력과 태양열만으로도 전기를 충당할 수 있다고 한다. 다만 데이터센터가 바다에 들어갔을 때 해양 생물이나 해양 생태계에 미치는 영향은 아직 발표된 바 없다.
- 오픈AI와 구글이 1, 2위를 다투는 것처럼 보이던 초거대 언어모델 시장에서 메타가 선택한 전략도 오픈소스 전략이다. 오픈AI와 치열한 경쟁에 내몰리자 구글은 기존과는 다르게 비공개 전략을 택했다. 반면 메타는 자사에서 개발한 초거대 언어 모델 라마를 오픈소스로 공개했다. 그러면서 챗GPT가 독주할 것으로 보이던 시장의 판도를 바꾸었다.
초거대 언어 모델의 성능을 평가하기 위한 리더보드에 라마를 기반으로 한 모델들이 높은 순위를 기록하기 시작했다. 수십, 수백억 원의 자본을 투입할 수 없는 개인 또는 작은 조직도 공개된 라마 모델을 바탕으로 자신만의 모델을 개발할 수 있게 되었다. 소수의 골리앗이 독점할 것으로 보이던 시장에 다윗들이 힘을 낼 수 있게 된 것이다
메타의 마크 저커버그는 라마를 오픈소스로 공개하면서 '오픈소스: AI가 나아가야 할 길'이라는 글을 공개했다. 오픈소스는 전 세계의 더 많은 사람이 I의 혜택과 기회에 접근할 수 있도록하고, 소수의 기업에 권력이 집중되지 않도록 하며, 사회 전반에 걸쳐 기술이 보다 균등하고 안전하게 배포될 수 있도록 한다는 것이 저커버그의 설명이다." 모텔에 접근하고 사용하는 권한에 비용을 정구하는 오픈AI나 앤트로픽과 달리 메타는 이를 이익창출의 대상으로 삼고 있지 않다.
- 가장 치명적일 수 있는 문제는 먼저 누구에게나 접근권한이 있다는 것은 그만큼 악용될 가능성이 커진다는 것이다. 딥페이크나 사이버 공격에 이용될 수도 있고, 테러리스트나 범죄조직이 이 기술을 사용해서 사람들에게 해가 되는 기술을 개발할 수도 있다. 첫GPT를 개발한 오픈AI의 일리야 수츠케버는 이러한 점 때문에 AI 기술이 고도로 개발될수록 사람들에게 덜 개방적이어야 한다는 의견을 표했다. 일론 머스크와 주고받은 메일에서 그는 오픈AI의 '오픈'은 기술 자체를 공개하는 것이 아니라 기술의 효용을 모든 사람이 나누겠다는 의미라고 적었다. 이러한 논의끝에 오픈AI의 산출물은 '오픈'이라는 사명과 달리 폐쇄형으로 운영되고 있다. 이와 같은 논리는 모델을 페쇄적으로 운영하는 기업들이 내세우는 표면적인 이유다.
그러나 그 속내를 잘 들여다보면 경쟁 우위를 지켜내기 위한 전략임을 짐작할 수 있다. 천문학적 비용을 들여 개발한 모델을 무료로 공개하는 것은 쉬운 결정이 아니다. 그 비용을 모두 회수하기 전에 후발주자에게 너무 손쉬운 발판을 만들어주는 것이기도 하기 때문이다.
- 이와같은 폐쇄형 모델 전략은2025년 돌풍처럼 나타난 중국발저비용 AI모델 딥시크에 의해 새로운 국면을 맞이하고 있다. 오픈소스 모델로 어마어마한 성능을 보여주고 있는딥시크에 대하여 전문가들은 오픈소스 모델이 폐쇄형 모델을 넘어섰다고 평가하고 있기 때문이다. 때문에 여전히 오픈소스논쟁은 현재진행형이다. 문을 열것인가, 닫을 것인가 어떤 선택이 기업,사회, 나아가 인류 전체에 더도움이 되는 방향인가.
- 2023년 한겨레포럼에서 스탠퍼드대학 인간중심인공지능연구소의 설립자이기도 한 제임스 랜데이 부소장이 연사로 나섰다. 당시 그는 이런 말을 했다. 지난 10년간 자율주행 기술에 어마어마하게 많은 공적자금이 투자금을 쏟아부었는데 지금 와서 돌이켜보니 그러한 투자가 썩 옳은 방향이 아니었다는 것이다. 자율주행으로 사람들이 꿈꾸는 미래란 자동차에 앉아 편하게 않아 책도 읽고 잠도 자면서 목적지에 도착할 수 있는 모습이지 않은가. 그런데 우리는 이미 그것을 할 수 있다. 대중교통 인프라를 통해서. 물론 대중교통으로도 접근 불가능한 곳들이 있지만 지금까지 자율주행에 쏟았던 막대한 공적 자금을 대중교통 인프라 확충에 집중했다면 우리는 지금 대중교통을 통해 못 가는 곳이 없었으리라는 말이었다. 다시 말해 우리가 상상하는 미래의 모습을 달성하기 위해완전히 새로운 기술이 필요한건 아니며, 문제 의식의 방향만
바꾸면 우리가 지금 보유한 기술로도 충분히 달성할수 있으리라는 이야기다.
-
'IT' 카테고리의 다른 글
생각하는 기계 (0) | 2025.10.10 |
---|---|
오늘부터 회사에서 AI합니다 (0) | 2025.09.11 |
누가 AI전쟁의 승자가 될 것인가, 패권 (8) | 2025.07.11 |
2025 AI대전환 (9) | 2025.07.02 |
나는 AI와 공부한다 (10) | 2025.06.24 |