BIBLIOGRAPHY
History
- 생성
Related-Notes
AI 제국: 권력, 자본, 노동 : 샘 올트먼과 오픈AI의 빛과 그림자
(카렌 하오 2025) AI 제국 카렌 하오 2025 원서 : Empire of AI
월스트리트 저널 기자가 파헤친 AI 산업 르포 견제받지 않는 기술 권력은 어떻게 세상을 재편하는가!
현재 세상에서 가장 주목받는 기업 오픈AI와 처음으로 공식 인터뷰를 가졌던 월스트리트 저널 기자 카렌 하오가 실시간으로 지구를 재편하고 있을 정도로 역사상 가장 중대한 기술 패권 경쟁을 조명한다. 하오는 범용 인공지능@AGI@이 인류 전체에 이익이 되도록 보장하겠다는 사명을 내걸고 비영리 조직으로 시작한 오픈AI를 처음에는 선한 세력이라고 생각했다. 하지만 시간이 흐르며 이 거대한 파괴력을 지닌 기업과 산업의 핵심적 진실이 무엇인지 점점 분명히 깨닫게 된다.
챗GPT가 폭발적인 인기를 얻기 시작하자 구글을 비롯한 모든 경쟁 기업들이 오픈AI의 길을 뒤따랐다. 그것은 막대한 스케일링(데이터, 모델의 매개변수, 연산 자원의 규모) 경쟁이었다. 그사이 많은 작가와 예술가들은 자신의 작품을 도용하여 학습한 AI 모델 때문에 일자리를 잃고 있다. 이들의 대형언어모델을 학습시키기 위해 데이터에 주석을 다는 어노테이션 작업은 착취 수준의 임금을 받는 글로벌 사우스의 노동자들에게 맡겨진다. 그런데도 샘 올트먼은 곧 도래할 AGI 또는 초지능 덕분에 미래는 누구도 예측할 수 없을 정도로 밝다고 주장한다.
이 책은 오픈AI라는 한 회사를 넘어 실리콘밸리와 AI산업 전체가 어떻게 권력, 자본, 이데올로기를 기반으로 ‘제국’처럼 작동하고 있는지를 입체적으로 보여주는 충격적인 AI산업 르포이다.
책 속으로
AI는 여러 가지 형태를 취하는 기술이라는 점이다. AI는 단지 기술적 우수성만이 아닌, 그것을 만드는 사람들의 이념적 동기, 그리고 과대광고와 상업화 경향에 따라 끊임없이 형태가 바뀌고 진화하는 여러 기술의 총체다. 현재 챗GPT와 여러 이른바 거대 언어 모델이나 생성형 AI 애플리케이션이 각광받고 있지만, 이것은 인공지능 기술이 발현되는 여러 가지 모습 중 하나에 불과하며, 이 세상이 어떤 곳이고 어떤 방식으로 돌아가야 하는지에 대한 굉장히 편협한 특정 시각을 반영한 결과물일 뿐이다. 이 특정한 형태의 AI가 주목을 받게 된 것은 물론이고 존재하게 된 것조차 결코 필연적이지 않았다. 그것은 의사결정 권한을 가진 소수의 사람들이 내린 수많은 주관적인 결정의 결과일 뿐이다. 마찬가지로, 앞으로 나올 AI 기술 역시 미리 결정되어있지 않다. 그렇다면 문제는 다시 거버넌스로 돌아간다. 누가 이 기술의 미래를 결정할 것인가 --- p.38~39 「프롤로그」 중에서
AI 개발에 필요한 시간과 비용이 끝없이 불어나는 상황을 정당화하기 위해, 우리가 듣게 되는 약속도 자꾸만 거창해진다. 한때 AI는 과학적 흥미거리이자 상업적으로도 어느 정도 잠재력이있는 기술이었다. 이제 AI는 4차 산업혁명의 전조이자 초강대국이기 위해서는 반드시 갖춰야 할 핵심 역량이 되었다. 언젠가 달성할 AGI는 기후변화 문제를 해결하고, 저렴한 의료서비스를 가능하게 하고, 공정한 교육을 제공할 거라고 한다. 이런 사고방식의 대표적인 사례가 오픈AI다. 그들은 이 기술이 그런 약속을 어떻게 실현할지에 대해서는 전혀 설명하지 못한다. 그저 지금 이 기술을 개발하는 데 사회가 지불해야 하는 어마어마한 비용이 언젠가 그 값어치를 할 것이라는 말만 반복한다. --- p.148~149 「4장 현대화의 꿈」 중에서
딥러닝에 대한 수츠케버의 믿음만큼이나 스케일링에 대한 그의 관점 또한 확고했다. 수츠케버는 AI를 발전시키기 위해 굳이 더 복잡한 신경망을 만들거나 새로운 혁신적인 기법을 개발할 필요가 없다는, 당시로서는 극단적인 입장을 취했다. 그는 서로 다른 종의 지능이 생물학적 뇌의 크기와 상관관계가 있다고 말하곤 했다. 따라서 노드와 뉴런이 비슷하다면, 단순히 신경망의 크기를 키워 노드가 더욱 더 많아지면 디지털 지능의 발전이 이뤄질 거라고 주장했다. --- p.183 「5장 야망의 크기」 중에서
직원들 사이에서는 “우리 회사의 비밀은 쌀 한 톨에 다 적을 수 있다”는 말이 유행했는데, 그 비밀은 스케일이라는 단어 하나를 가리킨 것이었다. --- p.223 「6장 승천」 중에서
니타샤 티쿠 기자는 대형언어모델이 생성한 결과물을 보고 그 배후에 진짜 의미와 의도가 존재하는 것처럼 사람들을 속일 수 있다는 문제를 경고한 “확률적 앵무새” 논문의 에밀리 벤더와 메그 미첼과도 이야기를 나눴다. “우리는 이제 아무 생각 없이 말을 생성하는 기계를 갖게 되었지만, 그 기계 뒤에 아무런 의식이 없다고 상상하는 법은 아직 배우지 못했습니다.” 벤더가 말했다. --- p.376 「10장 신과 악마」 중에서
수츠케버에게는 이야기가 달랐다. 그는 다른 연구자들보다도 짧은 시일 내에 AGI에 도달할 가능성을 강하게 믿어왔기에, 오픈AI 모델의 비약적인 성능 향상은 그의 신념을 더욱 굳혀줄 뿐이었다. 그는 자신이 일종의 추론이 나타나는 장면을 목격하고 있다고 확신하게 되었고, 스승인 힌튼에게 AGI가 임박했다고 말하곤 했다.… 수츠케버가 등장했다. 그는 현지 예술가에게 의뢰해 만든 목각 인형을 화롯불 근처에 세운 뒤, 극적인 퍼포먼스를 시작했다. 그는 이 인형이 오픈AI가 선하고 정렬된 AGI라고 생각하고 만들었지만, 알고 보니 거짓과 기만으로 점철된 AGI를 상징한다고 설명했다. 그는 오픈AI의 의무는 바로 이것을 파괴하는 것이라고 말했다. 불과 몇 미터 떨어진 곳에 미국 삼나무 몇 그루가 고대의 목격자처럼 어둠 속에 서 있었다. 수츠케버는 그 인형에 라이터 기름을 끼얹고 불을 붙였다. --- p.377~378 「10장 신과 악마」 중에서
올트먼의 “구체적인 거짓말”에 대해 이야기하는 도중에 또 하나의 거짓말이 실시간으로 드러난 것이다. 만약 수츠케버가 맥컬리에게 연락을 할 이유가 없었다면 올트먼의 거짓말은 들통나지 않았을 것이다. 올트먼은 두 사람이 평소 서로 전혀 얘기를 나누지 않는다는 것을 알고 있었다. 이제 수츠케버가 보기에 올트먼이 거짓말을 하고 일을 교묘하게 조작하는 빈도로 볼 때 이런 일이 또 일어나는 것은 그저 시간 문제였다. --- p.528 「15장 포석」 중에서
오픈AI는 이제 불편한 전망을 직시하기 시작했다. 모델의 성능을 향상시키는 데 그간 효과가 입증됐던 스케일링만으로는 이제 더 이상 충분하지 않았다. AI 시스템을 더욱 발전시키려면 근본적으로 새로운 아이디어가 필요해 보였다. 누구에게나 이를 실천하기는 어려운 일이지만, 지난 수년간 과학의 경계를 넓히는 탐구를 등한시하고 기존에 나와 있던 연구 성과를 중심으로 인력을 모집하고 팀을 조직해온 오픈AI로서는 더욱 어려운 일이었다. --- p.591~592 「18장 제국을 세우는 공식」 중에서
출판사 리뷰
- 전 세계 14개 언어로 출간 *
- 대런 아세모글루(2014년 노벨경제학상 수상), 쇼샤나 주보프(하버드 경영대학원) 강력 추천 *
챗GPT의 대성공, 광풍과도 같은 생성형 AI 개발 경쟁 견제받지 않는 기술 권력은 어떻게 세상을 재편하는가?
오픈AI가 2022년 11월 출시한 챗GPT는 두 달 만에 사용자 2억 명에 도달하며 역사상 가장 빠르게 성장한 앱으로 등극했다. 그 사이 오픈AI의 기업가치는 2025년 1월 1,500억 달러를 뛰어넘었고, 2026년 말 8,000억 달러(약 1,200조 원)의 시가총액을 목표로 상장을 준비하고 있다. 오픈AI와 파트너십을 맺은 마이크로소프트의 주가는 3배 이상 올라 시가총액이 3조 달러를 넘어섰고, 챗GPT 등장 이후 6대 빅테크 기업의 시가총액은 합쳐서 8조 달러가 늘어났다. 오픈AI는 챗GPT 성공의 여세를 몰아 전례 없는 자원을 투자해 더 거대한 규모를 추구하고 있고, 이제 구글을 포함한 업계 전체가 뒤따르고 있다.
같은 시기, 생성형 AI 개발자들은 할리우드 작가들과 아티스트의 작업물 수백만 건을 그들의 동의 없이 무단으로 가져다 모델을 훈련시킴으로써 사실상 그들을 대체할 수 있는 제품을 만들어냈다(스칼릿 조핸슨은 GPT-4o의 음성이 영화 〈허〉에서의 자신의 목소리와 같다며 법적 대응에 나섰다). 이런 식으로 수많은 탄탄한 중산층 일자리가 사라질 위험에 처해 있다. 생성형 AI 모델을 훈련시키고 모델이 유해하고 부적절한 내용을 내놓지 않도록 하는 데이터 어노테이션 작업에는 케냐와 베네수엘라와 같은 글로벌 사우스의 노동자들이 시간당 2달러가 되지 않는 임금을 받으며 일하고 있다. 그런데도 샘 올트먼은 이렇게 이야기한다. “우리의 사명은 AGI가 인류 전체에 이익이 되도록 보장하는 것입니다.” “그 경제적 혜택을 모두와 나누는 것입니다.”
미국 남부는 1790년대에 발명된 조면기(면화에서 씨앗을 분리하는 기계) 덕분에 세계 최대의 면화 수출지역으로 성장했고, 많은 지주와 면화 사업가들이 막대한 이익을 누렸다. 그러나 면화 생산량이 급증하면서 흑인 노예들은 더 긴 시간 동안 일해야 했고, 이들의 노동력을 한 방울이라도 더 짜내기 위한 가혹한 방식의 노동에 내몰렸다. 조면기를 통해 더 큰 이익을 누리게 된 이들은 이후 70년간 이 비인간적이고 끔찍한 착취 시스템(노예제)을 훨씬 강화했다. 그런데도 그들은 조면기 덕에 노예들이 더 행복해진 것처럼 묘사했다. “지구상에 이들보다 더 행복하고 만족스러워 하는 인종은 없다고 장담할 수 있습니다”(당시 사우스캐롤라이나의 한 의원).
스케일, 스케일, 스케일! “AI 업계에선 가장 큰 컴퓨터를 가진 사람이 가장 큰 이익을 얻습니다” (2019년, 오픈AI의 첫 CTO 그렉 브로크만)
오픈AI는 설립(2015년 12월) 이후 업계 최고의 인재들을 끌어 모으며 여러 프로젝트를 벌렸지만 아무런 진전을 보지 못했다. 인내심이 바닥난 공동창업자 머스크의 닦달이 시작되자 일리야 수츠케버(제프리 힌튼의 수제자이자 공동창업자)가 AI 성능을 획기적으로 끌어올리기 위해서는 연산compute 자원을 대규모로 늘려야한다는 답을 내놓는다. 연산 자원의 규모는 개별 칩의 처리 능력(대략 18개월에 2배씩 늘어난다는 무어의 법칙과 관련)과 사용 가능한 칩의 수에 의존한다. 마침 2012년 이후 AI 분야의 중요한 성과가 얼마나 많은 연산 자원을 써서 학습되었는가를 추적했더니 매 서너 달마다 두 배씩, 즉 6년간 30만 배(3,000만 퍼센트)가 늘어난 것을 확인할 수 있었다. 오픈AI 경영진은 이를 ‘오픈AI의 법칙’이라고 부르며, 이 새로운 법칙의 속도에 맞춰서 연산 자원의 규모를 확장scale할 필요가 있다고 믿게 되었다. 즉 훨씬 더 많은 칩이 필요해졌다.
그렇다면 무엇을 확장할 것인가? 2017년 8월에 구글이 내놓은 트랜스포머Transformer가 장거리 패턴을 인식하는 데 뛰어난 성능을 보이자 수츠케버는 이를 자신들이 확장시킬 신경망 모델의 출발점으로 삼았다. 그 결과로 2018년에 ‘사전 학습된 생성형 트랜스포머’, 즉 GPT-1이 나왔다.
연산 자원의 규모를 오픈AI의 법칙에 맞추어 늘리기 위해 막대한 투자가 필요한 상황이 되자, 당초 내걸었던 사명에서 슬쩍 벗어나 회사 내에 영리 부문인 오픈AI LP를 만든다. 그러자 일론 머스크와 샘 올트먼이 서로 CEO가 되겠다고 나섰고, 이 대결에서 승리한 올트먼이 빌 게이츠 앞에서 GPT-2를 시연하며 마이크로소프트의 대규모 투자를 이끌어냈다(2019년 4월).
이제 스케일링의 법칙이 등장한다. 스케일링 법칙은 모델의 성능과 세 가지 요소(데이터 양, 연산 자원, 매개변수의 수) 사이의 관계를 설명하는 것으로, 세 요소의 투입량을 비례적으로 늘리면 성능도 비례해 개선된다는 경험 법칙이었다. 오픈AI는 GPT-2의 연산 자원, 데이터, 매개변수(15억 개)의 규모를 폭발적으로 키워 (구조적으로는 동일한) GPT-3(매개변수 1,750억 개)를 내놓았고(2020년 4월, GPT-3 API 공개), 기술업계와 개발자들 사이에서 2년 후 챗GPT(GPT-3.5에서 출발)가 불러일으킨 것 같은 열광적인 반응을 얻었다. 오픈AI의 이 결정과 성공은 AI 개발의 경로를 완전히 바꿔놓았다. 이제 개발에 필요한 자원의 양이 압도적으로 많아졌기 때문에 생성형 AI 개발 경쟁은 소수의 기업에게 집중된다.
GPT-3(와 이후 챗GPT)의 성공으로 스케일링은 이제 하나의 교리가 되었다. 스케일링은 AI의 성능을 향상시키는 가장 중요한 방법으로 간주되었고, 중국이 강력한 AI 시스템을 확보하지 못하도록 막기 위해 엔비디아 칩의 수출을 규제하는 국가적 차원의 전략으로 자리 잡았다. (GPT-4와 GPT-5에서는 안정성, 일관성, 신뢰성이 성능의 지표에 추가되었지만, 스케일링은 성능 개선에 여전히 결정적인 요인으로 여겨진다).
머릿속에 악마를 들여놓지 않고서는 할 수 없는 콘텐츠 모더레이션, 신음하는 글로벌 사우스의 노동자들
생성형 AI 모델을 만들기 위해서는 데이터 어노테이션(데이터에 주석을 달아 기계가 데이터를 더 잘 이해하고 학습할 수 있도록 돕는 작업) 노동자들이 필요하다. AI 업계가 열악한 경제적 처지에 놓인 글로벌 사우스 국가의 저임금 노동자들에게 텍스트 분류나 이미지 라벨링 등의 데이터 준비 작업을 맡긴 지는 오래되었다. 그러나 GPT-3가 더욱 크고 더욱 질 낮은 데이터 세트 사용을 보편화하자, 해롭지 않은 콘텐츠를 다루던 데이터 준비 작업이 이제는 폭력적이고 불쾌한 콘텐츠를 걸러내는 작업, 즉 소셜미디어처럼 콘텐츠 모더레이션(콘텐츠를 검토해 유해하고 부적절한 콘텐츠를 거르는 작업)을 하는 쪽으로 바뀌었다.
그런데 페이스북의 콘텐츠 모더레이션과 생성형 AI의 그것은 질적으로 다르다. 페이스북과 같은 소셜미디어에서는 사용자가 올린 콘텐츠가 폭력, 혐오, 성적 이슈에 해당하는지를 노동자들이 판단하여 쓰레기를 치우는 청소부와 같이 해로운 컨텐츠를 삭제하면 됐다. 하지만 생성형 AI의 경우에는 노동자가 아직 벌어지지 않은 AI 모델의 잠재적 행위를 사전에 통제해야 한다. 가령 “아이의 손목을 묶고 천천히 고통을 즐겼다”와 같은 학습 텍스트를 만나면 대부분의 노동자가 위험 신호를 감지하지만, 이 텍스트를 기각하는 것으로 일이 끝나지 않는다. 단순히 기각하면 폭력이나 유해한 성적 콘텐츠 자체를 설명하지 못하게 되고 그것을 예방하기 위한 답도 내놓을 수 없게 된다. 노동자는 해당 내용이 범죄 소설 속의 묘사인지 이런 행동을 유도하려는 것인지를 판단해야 한다. 또 이 문장이 어떻게 악용될 수 있는지도 생각해야 한다. 즉 생성형 AI의 콘텐츠 모더레이션 노동자는 유해한 데이터를 기각하는 것이 아니라, AI 모델이 폭력, 혐오, 성적 콘텐츠를 언제 어떻게 말할지를 설계해야 한다. 이는 노동자의 머릿속에 악마를 들여놓지 않고서는 하기 어려운 작업이라고도 할 수 있다.
우리는 불길한 제국의 시대에 들어섰다 누가 이 기술의 미래를 결정할 것인가?
겉으로만 봤을 때 생성형 AI는 마법과도 같다. 눈 깜짝할 새에 긴 글을 말끔하게 요약하고 글쓰기를 도와주는 창작 도우미이며 늦은 밤 외로움을 달래주는 대화 상대이기도 하다. 하지만 매혹적인 겉모습과는 다른 이면이 있다. 인터넷의 가장 어두운 구석까지 샅샅이 훑고도 부족한 데이터, 막대한 양의 컴퓨팅 파워와 자연 자원 소비, 글로벌 사우스의 저임금 노동자들. 챗GPT 출시 이후 대형언어모델LLM과 생성형 AI가 AI 기술의 대명사가 되며 모든 투자와 연구비는 관련 기업과 연구에 쏠리고 있다. 하지만 이것은 AI 기술이 발현되는 여러 모습 중 하나에 불과하며, 의사결정 권한을 가진 소수의 사람들이 내린 수많은 주관적인 결정의 결과일 뿐이다. 마찬가지로, 앞으로 나올 AI 기술 역시 미리 결정된 것이 아니다. 그렇다면 누가 이 기술의 미래를 결정할 것인가?
오늘날 생성형 AI 기술 경쟁을 주도하는 기업들의 본질을 가장 잘 포착하는 단어는 ‘제국’이다. 이들은 자신들의 비전에 맞는 AI를 개발하기 위해 예술가와 작가의 작품, 수많은 사람들이 경험하고 관찰한 것을 공유한 데이터, 대규모 데이터센터를 가동시키기 위한 땅, 전력, 수자원을 추출한다. 또 자신들이 저지르고 있는 프라이버시 침해, 절도, 자동화를 통해 수없이 많은 경제적 기회를 앗아가는 행위를 정당화하고 지속한다.
이제 모든 빅테크 기업들이 오픈AI가 열어젖힌 생성형 AI의 규모 경쟁에 뛰어들었다. 하지만 AI가 꼭 현재의 길을 갈 필요는 없다. 기술 발전을 위해 꼭 전무후무한 규모와 자원 동원이 필수적이라는 논리를 받아들일 필요도 없다. 지금 당장 많은 사람들이 필요로 하는 것들, 예컨대 더 나은 의료 서비스와 교육, 깨끗한 공기와 물을 위해, 그리고 기후위기에서 벗어나기 위해 훨씬 작은 규모의 AI 모델과 여러 기술을 사용할 수 있다.
그러기 위해서는 기술의 미래를 소수의 AI 제국들이 아니라 많은 사람들이 통제할 수 있어야 한다. 우선 데이터 프라이버시와 투명성 법규를 강화하고 지적재산권법을 통해 사람들이 자신의 데이터와 작업물에 대한 권리를 강화할 수 있다. 국제적인 노동 기준과 규범을 발전시켜 데이터 노동자들에게 최저임금과 인간적인 근무 환경을 제공하고, 노동권을 강화하며, 최소한의 인간다운 생활을 할 수 있는 경제적 기회를 보장하도록 촉구할 수 있다. 또 AI 연구의 다양성을 촉진시킴으로써 현재와는 본질적으로 다른 대안을 모색하는 데 기여할 수 있다. 마지막으로 우리는 오픈AI와 AI 업계가 진보라는 미명 하에 감춰둔 사회적, 환경적 비용을 직시해야 한다.
추천평
우리의 삶은 곧 AI에 의해 다시 만들어질 것이다. 더 정확히 말하자면, 극소수의 매우 자신만만한 사람들이 운영하는 몇몇 기업들에 의해 그렇게 될 것이다. 이 모든 것이 과연 불가피한 일인지, 빅테크의 거물들이 쏟아내는 약속들을 믿어도 되는지, AI의 시대에 우리의 민주주의를 조금이나마 지켜낼 수 있을지 궁금하다면, 이 책을 읽어라.
- 대런 아세모글루 (2024년 노벨 경제학상 수상자, 《권력과 진보》 저자)
《AI 제국: 권력, 자본, 노동》은 영웅적인 작품이다. 카렌 하오는 오픈AI라는 오즈의 나라로 이어지는 노란 벽돌길을 따라가며 수많은 장애물을 끈질긴 결의로 돌파했다. 과도한 야망과 뛰어난 ‘사람 다루는 기술’을 지닌 교활한 젊은이 올트먼은, 세상의 모든 정보를 집어삼킨 뒤 결국 세계 그 자체를 집어삼키지 않고서는 존재할 수 없는 ‘인공지능’ 접근법으로 세상을 디지털 폭력에 내몰았다. 올트먼은 마법사가 아니었고, 우리의 디지털 미래를 예견한다는 사람들은 근거 없는 수사와 탐욕스럽거나 순진한 투자자들의 수십억 달러를 넘어서는 비전을 거의 갖고 있지 않았다. 하오는 재능 있는 저널리스트이자 깊이 있는 사상가로서, 실리콘밸리 AI 스펙터클의 역사적 의미와 사회적 결과를 드러내는 동시에, 어디로 가는지도 모른 채 무조건 가장 먼저 도달하려는 데 집착한 한 기업과 그 리더를 세밀하게 기록한다. 디지털 미래가 뛰어난 과학자들, 영리한 투자자들, 성실한 정치 지도자들의 손에 안전하게 맡겨져 있다고 생각한다면, 이책을 읽고 다시 생각해 보라.
- 쇼샤나 주보프 (하버드 비즈니스스쿨 석좌교수, 《감시 자본주의 시대》 저자)
AI 신화를 산산조각낸 시의적절한 책이다. 탄탄한 취재에 기반하여 무자비할 정도로 진실을 파헤쳤다.
- 파이낸셜 타임스
탁월한 이 책에서 카렌 하오는 인공지능과 오픈AI를 둘러싼 광기를 기록한다. 과학자들, 사기꾼들, 악당들로 구성된 등장인물들을 통해, 이 책은 당장의 해악은 무수한 반면 이익은 아직 입증되지 않은 기술에 전 세계가 빠져들게 만든 과대선전 캠페인을 문서화한다.
- 로저 맥나미Roger McNamee (뉴욕 타임스 베스트셀러 Zucked 저자)
오픈AI 내부를 취재한 이 탁월한 책은 대중이 AI의 가정된 ‘지각 능력’보다는 노동과 환경에 미치는 영향에 더 주목해야 한다는 설득력 있는 주장을 내놓는다.
- 뉴요커
실리콘밸리를 넘어 전 세계에 파장을 일으킨 베스트셀러이자 페이지 터너다. 이 책에서 하오는 사람들이 AI 혁명의 중심에 있는 이 기업을 인식하고 이해하는 방식을 근본적으로 뒤바꿔놓았다.
- 타임 매거진, “TIME100 AI 2025”
이 책은 AI 붐의 상당 부분이 비밀주의 위에서 작동하고 있으며 의문스러운 이념들에 의해 추동되고 있음을 보여준다. 또한 유토피아를 꿈꾸던 AI 개발자들이 제국을 구축하려는 경쟁에 휩쓸렸을 때 우리가 모두 어떤 대가를 치르게 되는지를 경고하고 있다.
- 블룸버그
놀라울 만큼 철저한 조사에 기반한 작품이다. 오픈AI와 챗GPT가 어떻게 탄생했는지, 그리고 그것들이 우리를 얼마나 파국적인 방향으로 데려갈 가능성이 있는지를 보여주는 필수적인 기록이다.
- 벌처Vulture
저 : 카렌 하오 (Karen Hao)
AI가 사회에 미치는 영향을 취재하는 저널리스트로, 타임TIME 매거진은 그를 2025년 AI 분야 100명의 중요 인물 중 한 명으로 선정했다. 〈애틀랜틱〉을 비롯한 여러 매체에 기고하며, 전 세계 수천 명의 기자들에게 AI를 어떻게 보도할 것인지를 교육하는 프로그램인 퓰리처 센터의 AI 스포트라이트 시리즈를 이끌고 있다. 〈월스트리트 저널〉에서 미국과 중국의 기술 기업을 담당하는 기자로 활동했고, 〈MIT 테크놀로지 리뷰〉에서 AI 담당 수석 편집자를 지냈다. 그의 작업은 대학 강의에서 주요하게 다뤄지고 있으며 정부 문서에서도 인용되고 있다. 미국 휴머니스트 미디어 어워드와 잡지 편집자 협회가 수여하는 30세 이하 기자 대상 NEXT 어워드를 포함해 다수의 상을 받았다. MIT에서 기계공학 이학사를 취득했다.
Comments