우리는 인터넷의 죽음을 지켜보고 있는가?

이달 중 Reddit은 65억 달러의 가치로 상장될 예정입니다. 일부 Redditor에게는 아직 발표되지 않았지만 주당 31~34달러 범위가 될 것으로 예상되는 초기 상장 가격으로 주식을 구매할 수 있는 기회가 제공되었습니다. 실제 가격과 상관없이, 2023년에 8억 4천만 달러의 매출에 9천 8백만 달러의 손실을 내고 한 번도 흑자를 낸 적이 없는 절대적인 적자 기업이라는 사실을 감안할 때 Reddit 주가가 IPO 가격 아래로 빠르게 하락하더라도 놀랄 일은 아닐 것입니다. Reddit의 S1(기업 공개를 위한 초기 등록 양식)은 사이트의 광고가 "빠르게 진화하고 있으며" "아직 이 사업을 성장시키는 초기 단계에 있다"고 우스꽝스럽게 주장하며 "이 사업"은 15년 전에 Reddit이 시작한 사업을 가리킵니다.

수백만 명의 무보수 기고자들이 수십억 개의 게시물을 작성하여 2023년 Steve Huffman CEO가 1억 9,300만 달러를 벌 수 있도록 하는 동시에 90명을 해고하고 API 액세스 요금을 과도하게 부과하여 타사 앱을 플랫폼에서 효과적으로 밀어낸 기업 역사상 가장 큰 사기 사건 중 하나인 Reddit IPO는 사용자들의 장기적인 '파업'을 유발했고, 가장 인기있는 일부 서브레딧이 단기간 동안 침묵을 지키게 만들었습니다. 결국 Reddit은 이러한 서브레딧을 효과적으로 '쿠데타'하여 오랫동안 운영해 온 운영자를 당의 노선을 따르고 대중에게 다시 공개할 수 있는 자체 선정한 사람들로 교체했습니다.

평생을 서브레딧에 애정을 가지고 기여하거나 중요하지만 인정받지 못하는 중재자 역할을 수행한 사람들 중 누구도 Reddit의 상장을 통해 이익을 얻지 못하지만, Sam Altman은 2014년에 투자한 5천만 달러로 수억 달러를 벌 수 있을 것입니다. 또한 Reddit은 Google이 Reddit의 게시물에 대해 모델을 훈련시키는 데 6천만 달러의 계약을 맺었다고 발표했는데, 이는 다시 한 번 사용자들의 노력에 대한 대가로 아무것도 제공하지 않는 것입니다.

Huffman은 투자자들에게 보낸 편지에서 Reddit의 "커뮤니티에 대한 깊은 주인의식"에 대해 시적인 표현을 사용하며, 투자자들에게 자신이 키운 회사의 의결권이 없는 주식을 살 수 있는 기회를 제공함으로써 "이러한 주인의식이 실제 소유권에 반영되기를 바란다"고 주장하며 기업 공개를 정당화합니다. Huffman은 Reddit이 "인터넷에서 가장 큰 규모의 진정성 있고 지속적으로 업데이트되는 인간이 생성한 경험의 코퍼스 중 하나"라고 말하면서 Reddit의 "데이터 이점 및 지적 재산"이라고 언급하며 Reddit의 게시물을 "사용자가 대화하면서 끊임없이 성장하고 재생성되는 데이터"라고 설명하며 서한을 마무리합니다.

우리는 초부유층 기술자들이 고객을 속여 공짜로 회사를 설립한 뒤 인터넷 사용자들을 상대로 벌인 방대하고 다각적인 사기의 끝자락에 와 있습니다. 한때는 이러한 거래가 공정해 보였지만, 이러한 경영진은 사용자를 일종의 공정한 거래에 기꺼이 참여하는 사람이 아니라 제대로 작동할 수도, 작동하지 않을 수도 있는 플랫폼에 대한 액세스 권한 외에는 아무런 대가 없이 최대한 많이 착취적으로 채굴할 데이터의 광맥으로 보고 있음이 명백해졌습니다.

물론 이것은 Cory Doctorow의 Enshittification theory의 핵심으로, Reddit은 사용자 만족에서 비즈니스 고객 만족으로, 이제는 플랫폼의 품질을 희생하면서까지 주주를 만족시키는 방향으로 나아가고 있습니다.

그러나 웹에서 일어나고 있는 일은 단순한 탐욕보다 훨씬 더 사악한 일이며, 수조 달러 규모의 기업이 통제하고 수익을 창출하는 데이터셋으로 훈련된 생성 괴물로 멋진 것을 만드는 인간을 대체할 방법을 찾았다고 생각하는 경영진이 사용자 생성 인터넷의 파괴를 초래하고 있습니다.

그들이 꿈꾸는 이상적인 상황은 인간이 만든 콘텐츠가 있는 개별 웹사이트를 방문하는 것이 아니라, 대부분의 트래픽이 소수의 선별된 기업이 운영하는 일련의 엄격하게 큐레이션된 포털을 통과하고, 고객이 소비하기보다는 공간을 채우기 위해 만들어진 생성 콘텐츠에 의해 점점 더 오염되는 데이터셋을 기반으로 생성되는 인터넷의 암흑 시대로 돌아가는 것이죠.

알고리즘은 쉽게 속일 수 있으며, 알고리즘을 속이는 데 사용되는 도구는 점점 더 쉽게 사용 및 확장되고 있습니다.

그리고 이는 인터넷을 서서히 죽이고 있습니다.

퇴행성(Degenerative) AI

1940년대 중반 세계 각국 정부가 지상 핵무기 실험을 시작한 후 방사성 입자가 대기 중으로 유입되어 모든 현대 철강 생산품을 영구적으로 오염시켰고, 방사능 측정기와 같은 특정 기계의 제작이 어려워지거나 불가능해졌습니다(예: 방사능 측정기). 그 결과, 로마 제국 시대의 선박을 포함하여 핵무기가 처음 폭발하기 전에 침몰한 선박에서 채취해야 하는 전쟁 전 금속인 '저배경강(low-backgorund steel)'의 공급이 제한적이었습니다.

생성형 AI 모델은 인터넷에서 스크랩한 방대한 양의 텍스트를 사용하여 학습되므로, 소비자가 생성형 AI를 채택함에 따라 자체 데이터셋에 어느 정도의 방사능이 유입되었습니다. 더 많은 인터넷 콘텐츠가 부분적으로 또는 전체적으로 생성형 AI를 통해 생성됨에 따라, 모델 자체는 점점 더 근친 교배되어 인간이 만든 콘텐츠를 대체하기 위한 도구가 등장하기 전인 2023년까지 어느 정도는 영구적으로 고정된 자체 모델에 의해 작성된 콘텐츠를 스스로 훈련하게 될 것입니다.

Jathan Sadowski가 "Habsburg AI"라고 부르는 이 현상은 "다른 생성 AI의 결과물에 대해 지나치게 많은 학습을 받은 시스템이 과장되고 기괴한 특징을 가진 근친 교배 돌연변이가 되는 것"입니다. 실제로 Habsburg AI는 모델이 점점 더 동일한 콘텐츠로 학습됨에 따라 점점 더 일반적이고 공허한 비즈니스 언어의 경사면으로 정규화되는 AI가 될 것입니다.

이미 공허한 저장소인 LinkedIn은 이미 사용자가 AI를 사용하여 메시지, 프로필 및 직무 설명을 작성할 수 있으며, 이러한 생성 기능을 사용하여 만든 모든 것은 2023년 초에 OpenAI에 100억 달러를 투자한 모회사 Microsoft가 소유한 Azure의 OpenAI 모델에 즉시 피드백됩니다. LinkedIn은 아직 완전 자동 응답 기능을 도입하지 않았지만, 이미 Chrome 확장 프로그램을 통해 플랫폼에 일반 응답이 넘쳐나면서 Microsoft와 OpenAI의 모델에 더 많은 일반 응답을 공급하고 있습니다.

생성형 AI는 또한 대형 플랫폼이 만들어내는 독성 인센티브와도 자연스럽게 맞닿아 있습니다. 검색 엔진 최적화 산업을 위한 Google의 알고리즘은 사람이 만든 콘텐츠보다 '관련성 있는' 콘텐츠를 대량으로 생성할 수 있는 사람들에게 자연스럽게 혜택을 줍니다. Google은 곧 출시될 '핵심' 업데이트가 "검색 엔진 순위가 아닌 사람을 위한 콘텐츠"를 홍보하는 데 도움이 될 것이라고 주장했지만, 이전에도 이런 약속을 한 적이 있으며 의미 있는 변화가 있을지는 의문입니다. 결국, Google은 전체 검색 트래픽의 85% 이상을 차지하고 있으며 Apple 기기에서 Google 검색을 기본값으로 설정하기 위해 매년 수십억 달러를 Apple에 지불하고 있습니다.

그리고 이러한 플랫폼은 품질보다는 규모와 양에 훨씬 더 많은 보상을 주도록 설계되었기 때문에, AI는 자연스럽게 알고리즘을 조작하는 가장 스팸성 있는 방법을 찾아내는 사람들에게 보상을 줍니다. 404 Media에 따르면 스패머들은 유튜브에서 뜯어낸 동영상에 AI가 생성한 음성이 말하는 '얼굴 없는 릴스'를 만들어 TikTok의 크리에이터 프로그램을 통해 수천 달러를 벌고 있으며, 자동화 전문가로 구성된 가내수공업은 알고리즘에 저항할 수 없는 저노력 동영상으로 Facebook, TikTok 및 Instagram에 넘쳐나는 다른 사람들을 도와 현금을 벌고 있다고 합니다.

아마존의 킨들 전자책 플랫폼은 한때 베스트셀러 목록을 장악한 AI 생성 콘텐츠로 넘쳐났으며, 이로 인해 아마존은 저자가 하루에 3권의 책을 출판할 수 있도록 제한했습니다. 그렇다고 해서 스패머들이 다른 사람의 책을 어설프게 재작성하거나 요약하여 게시하는 것을 막지는 못했고, 아마존의 정책이 AI 생성 콘텐츠를 전면적으로 금지하지 않기 때문에 ChatGPT는 출판 업계에서 수술할 수 없는 암이 되었습니다.

'핸드메이드' 상품 스토어인 Etsy도 자체적인 AI 문제를 안고 있는데, 작년에 The Atlantic은 이 플랫폼에 AI가 생성한 예술품, 티셔츠, 머그컵이 넘쳐나고 있으며, 이러한 상품이 ChatGPT를 사용하여 Google 검색에서 높은 순위를 차지하도록 목록을 최적화한다고 보도한 바 있습니다. 수익성이 높은 상장 기업인 Etsy는 플랫폼의 장인 제품이 배송된 셔츠에 붙여진 생성형 예술에 밀려난다고 해도 상황을 바꿀 동기가 거의 없습니다. 반면에 eBay는 제너레이티브 AI를 사용하여 단일 이미지를 기반으로 전체 목록을 생성하는 도구를 제공하면서 스팸에 기대고 있습니다.

지난해 Wall Street Journal은 잡지에 AI가 생성한 기사가 넘쳐나고 있다고 보도했으며, 유명 공상과학 출판사 Clarkesworld는 AI가 생성한 글이 너무 많이 접수되어 제출을 마감해야 했습니다. 기자가 잠재적인 취재원과 인용문을 찾을 수 있는 방법 중 하나였던 '기자에게 연락하기'는 이제 AI가 생성한 스팸으로 인해 요청이 쇄도하고 있습니다.

물론 이러한 사례는 모두 인공지능이 알고리즘에 의존하는 인터넷에 독이 될 수 있다는 단 하나의 문제를 보여주는 것입니다.

인터넷의 콘텐츠를 수동으로 정리하고 큐레이션하기에는 사용자, 웹사이트, 콘텐츠 제공자가 너무 많기 때문에 플랫폼이 서비스를 제공하기 위해서는 알고리즘이 필요합니다. 생성형 AI는 알고리즘이 따르는 특정 지침과 같은 일련의 지침에 맞게 콘텐츠를 영혼 없이 만들어내는 데 완벽한 도구이며, 이론적으로 알고리즘을 조정하여 콘텐츠를 '인간적'으로 평가할 수 있는 것처럼, 확장된 콘텐츠도 조정하여 더 인간적으로 보이도록 만들 수 있습니다.

인터넷 콘텐츠의 엄청난 양으로 인해 점점 더 많은 쓰레기 더미를 걸러내기 위해 알고리즘 추천이 필수적이라는 사실을 깨닫게 되면 상황은 더욱 악화됩니다. 크리에이터가 생성형 AI를 통해 알고리즘의 약점을 무기화하여 노력이 적게 드는 쓰레기로 수익을 창출하고 대중화할 수 있다면, 궁극적으로 플랫폼은 무엇을 해야 할까요? AI가 생성한 콘텐츠를 사용하는 모든 것을 금지할까요? 사람의 얼굴이 없는 동영상에 불이익을 주도록 알고리즘을 조정할까요? 플랫폼은 인기 있는 동영상과 플랫폼이 인기 있게 만든 동영상의 차이를 어떻게 판단하나요? 그리고 이러한 동영상이 사람이 만들고 사람이 즐기는 것이라면 왜 플랫폼이 이를 막아야 할까요?

Google은 검색 결과의 품질에 신경을 쓰는 척하지만, 지난 10년간 검색의 쇠퇴를 보면 Google이 실제로 어떤 조치를 취하고 있다는 것을 알 수 있습니다. Google의 스팸 정책은 수년 동안 스크랩 콘텐츠(다른 웹사이트의 콘텐츠를 노골적으로 뜯어내는 행위)가 Google에서 삭제 사유라고 주장해 왔지만, 뉴스 검색을 조금만 훑어봐도 사이트가 다른 사람의 콘텐츠를 얄팍하게 재작성하거나 노골적으로 도용하는 빈도가 얼마나 높은지 알 수 있습니다. 그리고 400억 달러 규모의 검색 엔진 최적화 산업의 존재가 얼마나 나쁜지(하지만 피할 수 없는지), 그리고 Google이 자세히 설명한 알고리즘의 기준에 따라 콘텐츠를 반자동으로 생성하고 최적화할 수 있다는 것이 얼마나 큰 이점이 있는지 충분히 표현할 수 없습니다. Google이 진정으로 SEO로 생성된 기사의 유입을 막으려는 시도를 할 수 있다는 것은 그럴듯하지만, 수십 년 동안 업계에 서비스를 제공한 후에 왜 이제야 시도를 하는지 의문이 들 수 밖에 없습니다.

현재 플랫폼들이 벌이고 있는 전쟁은 명백한 위협이 되고 있는 무의미한 생성형 스팸, 즉 말도 안 되는 차단할 수 있고, 차단해야 하며, 차단할 가능성이 높은 스팸과의 싸움입니다. 이 과정에서 그들은 이것이 스팸과의 전쟁이 아니라 쓰레기와의 전쟁이며, 알고리즘을 만족시키고 소비자에게 최소한의 실행 가능한 제품을 제공하기 위해 콘텐츠를 만들 때 발생하는 전반적인 정상화 및 지적 마비라는 점을 간과하고 있습니다. Google의 '쓸모없는' 결과 문제는 아무런 의미가 없는 콘텐츠가 아니라, '올바른' 결과라고는 하지만 '오류 코드 X 수정 방법' 결과와 같이, 그럴듯 하지만 실제로는 전혀 도움이 되지 않는 콘텐츠에서 비롯된 문제입니다.

Etsy와 Amazon도 마찬가지입니다. Etsy의 '스팸'은 실제 손으로 무언가를 만드는 장인들에게 실존적 위협이 되지만, 실제 스팸이 아니라 필요에 따라 싸게 만들어진 쓰레기이며 Etsy의 목적에 부합하는 상품입니다. 아마존은 다른 저품질 상품을 제거하지 않는 것과 같은 이유로 판매되는 저품질 도서를 제거할 인센티브가 없습니다. 사람들은 최고를 찾는 것이 아니라, 비록 그 욕구가 형편없는 쓰레기로 충족되더라도 욕구를 충족시키려고 합니다.

플랫폼은 포지셔닝과 인기를 혼동하여 알고리즘을 만족시키기 위해 만들어진 콘텐츠가 알고리즘을 만족시키기 위해 더 많은 콘텐츠 수요를 창출하기 때문에 알고리즘이 콘텐츠를 인기 있게 만든다는 자기 충족적 예언을 보지 못할 가능성이 높습니다. '바이럴' 콘텐츠는 더 이상 많은 사람들이 흥미롭다고 판단한 결과물이 아니라, 생성형 AI 덕분에 점점 더 강력하고 미묘해지는 알고리즘에 의해 조작된 콘텐츠가 만들어내는 조건입니다.

우리는 성장에 집착하는 기업이 운영하는 알고리즘에 어필하기 위해 모든 인기 콘텐츠가 똑같이 보이기 시작하는 인터넷의 초확장 및 초정상화를 지켜보고 있습니다. AI 모델의 품질 관리는 사람들이 의심할 여지 없이 부정한 의도를 가지고 네트워크를 노골적으로 악용하는 것을 막기 위해 존재할 뿐, 알고리즘이 그렇게 말해서 인기를 얻는 형편없는 콘텐츠를 만드는 것을 막기 위해 존재하지 않습니다.

이러한 자동화된 도구가 새로운 형태의 예술이나 흥미로운 신개념에 생명을 불어넣는 것이 아니라, 인터넷에서 가져온 데이터로 학습된 모델이기 때문에 점점 더 개성 없는 인터넷의 역류가 일어나고 있는 상황입니다. 햇빛을 받기 위해 몸을 돌리는 식물처럼, 인터넷의 일부는 이미 알고리즘의 만족을 위해 왜곡되어 왔으며, 다른 부분들이 생성형 AI에 의존하게 되면서(현재 ChatGPT가 생성한 답변을 결과 상단에 표시하는 Quora처럼) 웹도 자동화된 시스템에 더욱 의존하고 지시받게 될 것입니다.

궁극적인 문제는 이러한 쓸모없는 수렁으로 인해 Google과 같은 기업이 생성형 AI가 쓰레기를 걸러내는 답변을 생성하여 문제를 '해결'하도록 강요하게 된다는 것입니다. 아마존은 현재 생성 AI를 사용하여 리뷰를 요약하여 플랫폼에 있는 수천 개의 가짜 및 유료 리뷰를 합법화하고 아마존 자체에서 검증되고 신뢰할 수 있는 정보로 제시하고 있습니다. Google은 이미 iOS와 Chrome에서 전체 기사를 요약하는 '검색 생성 경험'을 실험하고 있으며, Microsoft의 Bing 검색은 검색 및 학습 데이터의 조합을 기반으로 답변을 제공하는 Copilot의 요약 기능을 이미 통합했습니다.

하지만 이 과정에서 이러한 플랫폼은 전 세계의 정보를 위험하게 장악하게 됩니다. 또한 Google은 Reddit과의 계약을 통해 Reddit의 콘텐츠에 실시간으로 액세스할 수 있게 되어 검색에서 Reddit 게시물을 기본적으로 표시할 수 있게 되었으며, 학습 목적으로 Reddit 게시물 데이터에 직접 액세스할 수 있게 되었습니다. 그러나 언젠가는 이러한 포털이 다른 사람이 작성한 글을 읽어서 답을 찾을 수 있는 곳으로 연결하기보다는 자체적으로 보유하고 있거나 접근 가능한 데이터를 기반으로 답을 생성할 것입니다(Tumblr와 Wordpress의 경우). 웹 사용자의 대다수가 인공지능을 이용해 웹사이트를 방문하고 정보를 요약해 주는 Arc Search의 '나를 위한 검색' 기능처럼 일련의 포털을 통해 웹을 경험하는 미래가 올 수도 있습니다.

현재 인터넷은 몇몇 플랫폼에 의해 통제되고 있으며, 각 플랫폼은 웹을 훌륭하게 만든 탐험과 창의력을 방해하려는 의도를 가지고 있습니다. 이들의 목표는 인터넷 검색 기능을 방해하고 정보의 출처를 더욱 모호하게 만드는 동시에 사용자가 무료로 만든 콘텐츠에 대해 플랫폼에 비용을 지불하는 것이라고 생각합니다. 제 생각에 이들의 궁극적인 목표는 더 큰 인터넷과의 상호작용을 가능한 한 많이 제거하고, 가능한 한 많은 것을 요약하고 역류시켜 그 결과를 최대한 통제하고 수익을 창출하는 것입니다.

어떤 수준에서는 현재의 플랫폼들이 AI를 사용하여 인터넷 서비스 제공업체와 비슷한 존재가 되어 플랫폼의 직접적인 결과로 너무 지저분하고 신뢰할 수 없게 된 웹에 '깨끗한' 액세스를 제공하고, 결국 포털, 모델, 챗봇에서 사용자의 정보가 눈에 띄는 것으로 수익을 창출하는 방법을 찾으려는 의도가 아닐까 우려되기도 합니다. 그렇게 되면 Steve Huffman과 같은 경영진이 모든 인터넷 트래픽을 두세 개의 웹사이트로 집중시키기 위해 최선을 다하는 플랫폼과 무료 노동으로 수익을 창출하기 위한 추가 계약을 체결하면서 나머지 인터넷은 썩기 시작하여 미디어 기업과 소셜 네트워크의 트래픽을 빼앗기게 될 것입니다.

그리고 인터넷이 이러한 중앙 집중식 플랫폼과 이들이 콘텐츠를 검색하는 사이트에 의해 지배되면서 Habsburg AI의 악순환이 시작됩니다. OpenAI의 ChatGPT와 Anthropic의 Claude는 모델을 개선하기 위해 지속적인 학습 데이터의 흐름에 의존하기 때문에 저작권을 위반하지 않고 작동하는 것이 사실상 불가능할 정도입니다. 따라서 이들은 선택하는 정보에 있어 까다로울 수밖에 없으며, 이는 앞서 제안했듯이 알고리즘의 요구와 이를 충족하는 일반 콘텐츠의 자동화 용이성으로 인해 인터넷에서 공개적으로 이용 가능한 콘텐츠에 의존할 가능성이 높다는 것을 의미합니다.

사용자 제작 콘텐츠가 사라질 것이라는 말이 아니라, 인간은 자동화가 할 수 있는 규모의 콘텐츠를 만들 수 없으며, 인터넷의 많은 부분이 로봇을 위한 콘텐츠라면 그것이 바로 미래의 모델에 정보를 제공하는 콘텐츠가 될 것이라는 말입니다. 진정으로 모델을 개선할 수 있는 유일한 방법은 더 많은 콘텐츠이지만, 생성되는 콘텐츠의 대부분이 좋지 않거나 흥미롭지 않거나 심지어 인간을 위해 작성된 것이라면 ChatGPT나 클로드의 모델은 썩은 콘텐츠의 썩은 습관을 배우게 될 것입니다. 그렇기 때문에 많은 모델의 응답이 비슷하게 들리는데, 이는 모델에 입력되는 콘텐츠에 크게 의존하기 때문에 '지능'의 상당 부분이 동일한 학습 데이터에서 비롯되기 때문입니다.

이 모델들은 실제로 아무것도 "알지 못한다"는 점에서 같은 문제의 다른 버전입니다. 다른 사람의 숙제를 베끼고 있는 것입니다.

여담이지만, GitHub 코파일럿과 같은 생성형 AI 제품에서 생성된 소프트웨어 코드도 우려스럽습니다. 보안 회사 Snyk의 연구에 따르면 공개적으로 사용 가능한 코드(그리고 사용자의 자체 코드베이스에 기반)로 학습된 GitHub 코파일럿 및 기타 AI 기반 코딩 플랫폼은 기존의 보안 문제를 복제하여 문제를 해결하기보다는 문제를 확산시킬 수 있다고 합니다. NYU의 사이버 보안 센터에서도 2023년 연구에서 CoPilot이 보안 취약점이 있는 코드를 40%나 생성한다는 사실을 발견했습니다.

이는 생성 이미지와 동영상에서 볼 수 있는 한계이기도 합니다. 인터넷은 교육을 위해 쉽고 저렴하게 사용할 수 있는 콘텐츠의 거대한 구멍이지만, 시각적 미디어에는 훨씬 더 복잡한 데이터가 많이 필요하며 저작권 문제도 심각하고 명백합니다. 앞서 언급했듯이 ChatGPT의 DALL-E(이미지) 및 Sora(동영상) 제품은 학습 방법의 가용성과 생성형 AI 자체의 한계로 인해 텍스트 기반 콘텐츠가 AI 생성 콘텐츠에 밀려나면서 동영상이 인터넷을 계속 지배할 수 있다는 것을 의미합니다. 이것이 바로 Sam Altman이 거대 AI 모델이 미래가 아니라고 주장하는 이유일 수 있습니다. 더 이상 성장시킬 연료가 충분하지 않을 수 있기 때문입니다. 결국, 알트먼은 하나의 데이터 소스로는 OpenAI를 "움직일 수 없다"고 주장합니다.

또한 이러한 배고픈 로봇은 합법적인 표절을 피할 방법이 없으며, 수많은 저작권 공격으로 인해 로봇의 발전 속도가 크게 느려질 수 있다는 사실도 피할 수 없습니다. 모델에서 정보를 삭제하는 것은 매우 어렵기 때문에 저작권이 있는 자료를 제거한 데이터셋을 이전 버전으로 되돌려야 하는 경우 모델 개발이 한 단계 후퇴할 수 있습니다.

OpenAI에 대한 수많은 소송은 회사의 발목을 잡을 수 있으며, 다른 AI 환상주의자들은 이러한 모델이 사회의 미래를 향한 난공불락의 길인 것처럼 생각할 수 있지만, 그들이 사용하는 데이터를 통제하거나 비용을 지불하게 하는 세력은 회사를 무릎 꿇리고 이러한 모델을 윤리적으로 만들 방법을 강구하도록 강요할 것입니다.

하지만 제가 두려워하는 세상은 이런 사람들이 만연하여 고유한 콘텐츠를 인터넷이라는 추악하고 교배된 괴물의 먹이로 삼고, 모든 사람의 정보 출처를 동일한 콘텐츠의 반 개인화된 버전으로 바꾸는 세상입니다. OpenAI, Google, Meta, Entrophic, Microsoft 등 이들은 인터넷을 표준화하여 모두 같은 곳으로 연결되는 일련의 유료 도로로 바꾸려는 시도를 하고 있습니다.

그리고 그들은 이를 위해 기꺼이 수십억 명의 사람들에게 잘못된 정보를 제공하고 불이익을 줄 것입니다. 그들의 미래는 덜 화려하고 덜 흥미진진하며, 가진 자들을 위한 것이고 창의적인 사람들을 억압하는 미래입니다. 초상화를 의뢰하는 사람이 예술가인 것처럼 생성 AI에 의존해 창작하는 사람들은 창작자가 아닙니다. Altman과 그 일당은 자신들이 새로운 레오나르도 다빈치라고 생각하지만, 그들은 세상의 마법을 훔치려는 소인배 왕과 임대료를 노리는 사람들에 지나지 않습니다.

그러나 그들과 싸울 수 있습니다. 그들의 거짓말을 믿지 마세요. 생성형 AI는 고상한 판타지의 언어로 가득 차 있을 수 있지만, 그들은 이 도구가 비용만 많이 드는 기술 엔진의 성장을 위한 끔찍한 결함이 있고 수익성이 없는 방법이라는 사실을 인정하지 않을 것입니다. 그들이 말하는 모든 것에 의문을 제기하세요. AI가 '언젠가는' 훌륭해질 것이라는 말을 받아들이지 마세요. 지금이 바로 그 순간임을 요구하고, 수십억 달러를 들여 반쯤 완성된 똥을 배송하는 사람들이 말하는 완벽하지 않은 것은 거부하세요. 마케팅 담당자가 말하는 공허한 환상을 거부하고, 여러분 앞에 놓인 도구에 의문을 제기하고, 평범함이 미래라고 말할 때 민감하게 반응하세요.

여러분은 바보가 아닙니다. 여러분은 "아무것도 놓치고 있지 않습니다." 이러한 도구는 마법이 아니라 다른 사람들로부터 훔친 페타바이트의 정보를 통해 학습한 실수를 반복할 수밖에 없는 환상적인 버전의 자동 완성 기능일 뿐입니다.