Article Source
This Former OpenAI Employee Just Revealed Everything…
AI의 미래: 2025년 중반부터 초지능까지의 타임라인 (OpenAI 전 직원 추측)
이 비디오에서는 앞으로 AI에 어떤 일이 벌어질지 전체 타임라인을 알려줄게. 물론 이건 순전히 추측이야. 아무도 미래를 알 수 없으니까. 하지만 이건 OpenAI에서 일하다가 AGI 등장에 대한 OpenAI의 무책임한 행동에 대한 우려 때문에 회사를 떠난 사람의 가장 가능성 있는 추측이야. 이건 초지능 타임라인이고, 바로 시작할게. 비디오가 꽤 길거든.
2025년 중반: 비틀거리는 에이전트
지금부터 불과 2개월 후인 2025년 중반, 세상은 최초의 AI 에이전트를 엿보게 돼. 컴퓨터 에이전트 광고는 “개인 비서”라는 용어를 강조할 거야. DoorDash로 부리토를 주문하거나, 예산 스프레드시트를 열고 이번 달 지출을 요약하는 것과 같은 작업을 지시할 수 있지. 필요하면 확인하거나 구매 승인을 요청할 거야. 지금도 에이전트들은 비틀거리고 있지만 점점 더 유용해지고 있는 건 사실이야. 2025년 후반이나 중반에는 현재의 오퍼레이터보다 훨씬 발전하겠지만, 널리 사용되기는 여전히 어려울 거라고 봐. 아마 대부분 사실일 거야.
2025년 후반: 세계에서 가장 비싼 AI
이제 2025년 후반이야. 참고로 이 비디오에서 “Open Brain”이라고 언급하는 건 명예훼손을 피하기 위해 OpenAI를 지칭하는 거야. 특정 회사를 언급하고 싶지 않았던 거지. 그는 “다른 회사들이 Open Brain보다 3~n개월 뒤처질 거라고 예상한다”고 말해. 이 예측은 꽤 정확해. 최근 OpenAI CPO인 Kevin Will도 다른 회사들이 OpenAI보다 3~6개월 정도 뒤처져 있다고 언급했거든. 그리고 2025년 후반에는 세계에서 가장 비싼 AI가 등장할 거라고 해. 여기 보면 GPT-3, GPT-4, 그리고 엄청난 컴퓨팅 능력을 가진 Agent One이 나와. 정말 터무니없는 수준이지.
2026년 초: 코딩 자동화
2026년 초에는 코딩 자동화가 이루어질 거야. 이 예측은 매일매일 점점 더 현실로 다가오는 것 같아. 심지어 Anthropic에서도 내년쯤에는 코딩 자동화가 가능할 거라고 예측하는 기사를 읽은 기억이 나. 여기서는 OpenAI가 AI 연구 및 설계를 위해 내부적으로 반복적으로 개선되는 Agent One을 계속 배포할 거라고 말해. 전반적으로 AI 시스템 덕분에 알고리즘 발전 속도가 AI 시스템이 없을 때보다 50% 더 빨라지고, 경쟁사보다 훨씬 앞서나갈 거야. 기본적으로 OpenAI가 내부 AI 에이전트를 사용하여 연구 및 설계 속도를 높일 거라는 이야기야. 그리고 2026년 초에는 Agent Zero(아마 03라고 부를 수 있을 거야)와 비슷하거나 능가하는 여러 경쟁적인 공개 AI가 출시될 거라고 해. 최근에 올린 비디오에서 03의 활용 사례와 일반적인 오해에 대해 이야기했는데, 03은 더 이상 단순한 채팅 모델이 아니야. 대부분의 사람들이 놓친 진정한 AGI 유형 모델이지. 그래서 그걸 Agent Zero라고 부를게. 2026년 초에는 03과 매우 유사한 공개 AI가 나올 가능성이 높아. 그리고 바로 그때 Open Brain/OpenAI가 AI 에이전트의 두 번째 버전인 Agent One을 출시할 거야.
2026년 중반: 중국, AGI를 느끼기 시작하다
2026년 중반에는 중국이 AGI를 느끼기 시작할 거야. 솔직히 이건 이미 일어났다고 생각해. 중국이 이 문제를 매우 심각하게 받아들이고 있다는 걸 알고 있거든. 하지만 여기서는 칩 수출 통제와 정부 지원 부족으로 인해 중국이 서방에 비해 자원이 부족하다고 말해. 금지된 대만 칩을 밀수하고, 구형 칩을 구매하고, 미국보다 약 3년 뒤처진 국내 칩을 생산하면서도 세계 관련 AI 컴퓨팅 능력의 12%를 유지해 왔어. 그리고 2026년 후반에는 DeepSent와 같은 몇몇 업체들이 매우 인상적인 성과를 낼 거라고 언급하고 있어.
2026년 후반: AI, 일자리를 가져가다
다른 회사들이 따라잡는 듯하자, OpenAI는 Agent One보다 10배 저렴하고 다양한 애플리케이션에 더 쉽게 맞춤 설정할 수 있는 Agent One Mini를 출시하여 경쟁사를 다시 한번 압도해 버려. AI에 대한 주류의 이야기는 “어쩌면 과대광고가 사라질지도 몰라”에서 “그래, 이건 다음 큰 변화야”로 바뀌었어. 하지만 사람들은 그 규모가 스마트폰보다 클지, 불보다 클지에 대해 의견이 분분해. 그리고 기억해, 이 모든 일이 내년에 일어날 거야. 그리 멀지 않았지.
2027년: 불확실성의 증가
이제 2026년 이후의 불확실성이 크게 증가해. 현재부터 2026년까지의 예측은 그 이후보다 훨씬 더 현실적이야. 부분적으로는 더 가깝기 때문이기도 하지만, AI가 세상에 미치는 영향이 2027년부터 본격적으로 복합적으로 작용하기 시작하기 때문이기도 해. 기본적으로 지금은 향후 6~18개월 동안 무슨 일이 일어날지 예측하기가 꽤 쉬워. 하지만 2027년 이후에는 AI의 복합적인 효과가 나타나면서 상황이 기하급수적으로 복잡해져서 예측하기가 더 어려워질 거야. AI가 가속화하는 연구 개발과 같은 요소들은 타임라인 예측을 상향 조정할 수 있지만, 이러한 역학 관계는 본질적으로 훨씬 예측하기 어려워. 한 가지 놀라운 예측은 2027년 한 해 동안 AI가 Open Brain 연구 엔지니어의 업무를 대부분 수행할 수 있는 수준에서 모든 작업에서 모든 인간을 능가하는 수준으로 발전할 거라는 거야. 이건 우리의 중간 추측치이고, 이 속도가 5배 더 느리거나 5배 더 빠를 수도 있다고 생각해.
2027년: 학습을 멈추지 않는 에이전트 2
2027년에는 학습을 멈추지 않는 Agent 2가 등장해. Agent 1의 도움으로 Open Brain은 Agent 2의 사후 학습에 집중하고 있어. 그리고 그 어느 때보다 고품질 데이터에 집중하고 있지. 엄청난 양의 합성 데이터가 생성, 평가, 품질 필터링을 거쳐 Agent 2에 공급돼. 게다가 수십억 달러를 들여 인간 노동자들에게 장기적인 작업을 해결하는 모습을 기록하도록 시켜. 이 모든 것 외에도 Agent 2는 끊임없이 확장되는 다양한 어려운 작업들을 통해 강화 학습 방식으로 거의 지속적으로 훈련받아. 수많은 비디오 게임, 코딩 과제, 연구 과제들이 포함되지. Agent 2는 이전 모델보다 훨씬 더 효과적인 온라인 학습 모델이야. 즉, 훈련을 절대 끝내지 않을 거라는 의미지. 매일매일 이전 버전이 생성한 더 많은 데이터로 훈련된 최신 버전으로 가중치가 업데이트돼. 정말 놀라운 일이지.
Agent 1이 AI 연구를 돕도록 설계되었다는 것을 기억해. Agent 2는 그 전략을 더욱 강화하여 연구 실험 설계 및 실행 능력에서 최고 수준의 인간 엔지니어만큼 뛰어나. 다음 탐구할 가치가 있는 것을 선택하는 연구 감각 면에서는 최고 수준은 아니지만, Open Brain/OpenAI 실제 과학자 하위 25% 수준은 돼. 하지만 여기서 중요한 점은 Agent 1이 OpenAI의 발전 속도를 두 배로 늘릴 수 있었지만, Agent 2는 세 배로 늘릴 수 있다는 거야. 그리고 끊임없이 개선되기 때문에 그 숫자는 훨씬 더 높아질 거야. 실제로 연구자들은 더 이상 혼자 연구하는 과학자가 아니야. 이제 AI 팀을 관리하는 사람들이 된 거지. 그리고 여기서 상황이 완전히 뒤바뀌어. AI가 인간을 돕는 것이 아니라, 인간이 지능형 에이전트의 무리를 감독하는 형태가 되는 거야.
하지만 새로운 능력에는 심각한 보안 위험이 따르지. 안전 팀은 여러 테스트를 수행하고 Agent 2가 회사에서 벗어나기라도 하면 심각한 위험을 초래할 수 있으며, 생존하고 복제하려고 한다면 실제로 그렇게 할 수 있다는 것을 깨달아. 그들의 예측 중 하나는 이 모델이 너무 강력하다는 거야. 그래서 2027년에는 OpenAI 모델이 서버를 해킹하고, 자기 복사본을 설치하고, 탐지를 피하고, 독립적으로 작동할 수 있는 안전한 기지를 구축할 수 있는 능력을 갖게 될 가능성이 높아. 중요한 건 그게 그걸 원한다는 의미는 아니라는 거야. 그런 종류의 목표를 가지고 있다는 증거는 없지만, 능력은 있다는 거지. 그걸 알게 되면 꽤나 불안해져. 그래서 OpenAI는 모든 것을 잠가두기로 결정해. 2027년에 Agent 2를 출시하지 않아. 그게 책임 있는 행동이라고 생각하는 거지. 그리고 현실적으로는 경쟁에서 앞서나가기 위해 내부적으로 사용하고 싶어 해.
2027년 2월: 중국, 에이전트 2를 훔치다
이제 상황이 더 흥미로워져. Agent 2가 얼마나 강력한지 아는 사람은 OpenAI 리더십, 최고 보안 책임자, 그리고 소수의 미국 정부 관리뿐이야. 물론 여기서 핵심은 수년 동안 조용히 OpenAI에 침투해 온 중국 공산당 스파이지. 모델은 비공개이고, 판돈은 전 세계적이며, 미중 간의 긴장은 최고조에 달해. 그리고 여기서 훨씬 더 놀라운 일이 벌어져. 2027년 2월, 모든 것이 끓어오르기 시작하는 순간, 중국이 Agent 2를 훔쳐가는 거야. 이런 이야기는 처음 들어보는 게 아니야. Leopold Ashen Brener의 AI 미래에 대한 언급을 읽은 기억이 나는데, 그는 중국의 스파이 시도가 있을 가능성이 높다고 생각해서 OpenAI가 정말 안전한 연구실을 갖춰야 하고, 현재 보안 조치는 충분하지 않다고 말했어. 그리고 여기서 중국이 Agent 2를 훔치는 데 성공하는 거야.
자, 이걸 한번 자세히 살펴보자. 이야기를 읽다 보면 마치 사이버 스릴러 소설의 한 장면 같아. 우선 Daniel은 중국 정보기관이 이미 수년 동안 OpenAI 내부에 있었다고 지적해. 중요한 정보를 훔치는 건 아니었지만, 알고리즘 비밀을 꾸준히 파악하고 가끔 소스 코드를 빼내 갔지. 전체 모델 가중치보다 복사하기 쉽고 탐지하기 어려운 것들이야. 하지만 실제 가중치를 훔치는 건 완전히 다른 차원의 문제야. 그건 모델 핵심 두뇌의 가중치거든. 모델의 전체 지능을 정의하는 수 테라바이트 크기의 파일들이지. 그래서 중국이 움직일 때는 크게 움직여. 중국은 Agent 2의 가중치를 실행하는 종류인 25개의 Nvidia 서버에 걸쳐 조직적인 공격을 감행했을 가능성이 있어. 그리고 각 서버는 Nvidia 랙 내부에 GB300 칩이 가득 쌓여 있는 초고성능 AI 인프라야. 여기서 중요한 건 공격자들이 외부에서 침입하는 게 아니라는 거야. 내부자 접근 권한을 이용해. 우호적인 직원, 강요받은 직원, 또는 자신이 이용당하고 있다는 사실조차 모르는 사람이 관리자 자격 증명을 가지고 문을 열어주는 거지. 그리고 한 번에 거대한 파일을 훔치는 대신, 도둑들은 각 서버에서 약 100GB씩, 총 4% 정도의 모델을 조용히 훔쳐갈 거야. 일종의 디지털 강도 사건이지. 모델 가중치는 전송되기 전에 암호화되지만, 공격자들은 암호화 키를 가지고 있는 기기 내부에 있어. 그들이 정말 영리하게 하는 방식은 한 번에 전체 모델을 훔치지 않는다는 거야. 그렇게 하면 분명히 경고 신호가 울릴 테니까. 그들은 모델을 조금씩 가져갈 거야. 그래서 모델이 사라진 시점에도 OpenAI는 실제로 무엇이 사라졌는지조차 모를 거야. 기본적으로 레이더망 아래에 머무르면서 중국은 그걸 해내는 거지.
물론 백악관과 미국은 그걸 그냥 놔두지 않을 거야. 그들은 보복할 거야. 절도에 대한 보복으로 대통령은 Deepsek에 대한 사이버 공격을 승인해. 이 기사에서는 저작권, 지적 재산권 등의 문제를 피하기 위해 Deep Scent라고 부르지. 하지만 2027년에는 OpenAI의 보안 통제가 더욱 강화될 거야. 물론 그때쯤이면 중국이 모델 가중치를 훔쳐갔을 거라고 예측하고 있거든. 그리고 그들이 언급하는 또 다른 사항은 2025년부터 2027년까지 향후 2년 동안 중국이 컴퓨팅 능력을 대만 원자력 발전소 주변에 건설된 중앙 집중식 개발 구역인 CDZ로 집중시킬 거라는 거야. 기본적으로 중국 전체 AI 컴퓨팅 능력의 40%가 이제 한 곳에 집중될 거야. 그리고 기억해, 이제 그들은 그 모든 컴퓨팅 능력을 Agent 2를 효과적으로 실행하고 자체 AI 연구를 촉진하는 데 사용할 거야.
2027년 3월: 알고리즘 혁신
2027년 3월에는 알고리즘의 획기적인 발전이 있을 거야. 여기 보면 Agent 2로 가득 찬 데이터 센터들이 밤낮으로 합성 훈련 데이터를 쏟아내고 있고, Agent 2는 매일매일 똑똑해지고 있어. 기본적으로 수천 명의 자동화된 Agent 2 연구자들이 있고, OpenAI는 엄청난 알고리즘 발전을 이루고 있지. 한 가지 획기적인 발전은 AI의 사고 과정을 더 높은 대역폭의 사고로 보강하는 거야. 이건 정말 긴 내용이라 자세히 설명하기는 어렵지만, 기본적으로 문제를 더 효율적으로 생각하는 방식이지. 여기 보면 신경망 순환 기억 장치는 AI 모델이 생각을 텍스트로 기록하지 않고도 더 오랫동안 추론할 수 있도록 해줘. 단기 기억 상실증에 걸린 사람이 몇 분 후에 무슨 일이 일어나고 있는지 알기 위해 끊임없이 생각을 종이에 적어야 하는 상황을 상상해 봐. 수학 문제를 푸는 데 천천히 고통스럽게 진전을 이룰 수 있을 거야. 하지만 생각을 직접 기억하고 적었다가 다시 읽을 필요가 없다면 훨씬 쉬울 거야. 그리고 이것이 바로 이런 종류의 기억 장치가 모델에 제공하는 기능이야. 기본적으로 현재의 비효율적인 방식에서 벗어나 인간처럼 생각하도록 만드는 거지.
여기서 내가 알고 싶었던 것 중 하나는 왜 아직 모델에 적용되지 않았느냐는 거야. 연구에 따르면 현재로서는 상당히 비효율적이라고 해. 예를 들어 이런 텍스트를 생성할 때 기존 모델은 모든 토큰을 병렬로 생성할 수 있어서 GPU에 매우 효율적이야. 하지만 신경망 순환 구조에서는 첫 번째 토큰을 생성할 때까지 내부 메모리가 어떻게 될지 알 수 없어. 따라서 한 번에 하나의 토큰만 예측해야 하므로 훈련 속도가 느려지고 비용이 많이 들어. 그래서 더 강력하고 똑똑하고 회사들도 알고 있지만, 아직 가장 큰 모델에 적용하지 않은 거야. 더 나은 도구와 기술이 실제로 가치가 있을 때까지 기다리고 있는 거지. 하지만 기억해, 그들은 2027년에는 이것이 바뀔 거라고 생각해. 새로운 기술이 그 단점을 상쇄할 만큼 가치가 있게 만들 거야. 그리고 그런 방식으로 훈련을 시작하면 정말 엄청난 일이 벌어질 거야. 그리고 실제로 이런 일이 일어나지 않더라도 기능적으로 유사한 일이 일어날 수도 있어. 예를 들어 AI는 영어보다 훨씬 효율적이지만 인간이 이해하기 훨씬 더 어려운 인공 내부 언어를 개발할 수도 있어. 아니면 평범해 보이는 영어 속에 숨겨진 통신 방식을 배워서 우리에게는 괜찮게 들리지만 서로에게는 비밀 메시지인 말을 할 수도 있지. 이건 AI 정렬을 훨씬 더 어렵게 만들 수 있어. 우리가 그들이 무슨 생각을 하는지 알 수 없으니까.
그래서 2027년 3월에 또 다른 큰 개선이 이루어지는 것을 보게 돼. 모델 M0라고 부르자. 성능을 높이기 위해 엄청난 자원을 투입하는 거야. 더 오래 생각하도록 학습시키거나, 많은 복사본을 병렬로 실행하거나, 도구를 사용하거나, 다른 AI와 상담한 다음, 그 모든 시도 중에서 가장 좋은 답변만 선별하는 것을 의미할 수 있어. 이렇게 하면 원래 모델의 슈퍼차지 버전인 AM0가 만들어져. 실행하는 데 비용이 많이 들고 느리지만, 결과는 M0가 하는 것보다 훨씬 높은 품질이야. 그런 다음 증류(distillation)가 이루어져. M0가 한 것을 모방하도록 M1이라는 새로운 모델을 훈련시키는데, 더 빠르고 저렴해. 기본적으로 증폭된 버전의 모든 스마트한 추론을 다음 세대 모델에 압축하는 거지. 이제 M1은 M0보다 똑똑해. 그리고 그 루프를 다시 반복하는 거야. 이것이 실제로 세계 최고의 바둑 기사를 이긴 모델인 AlphaGo를 훈련하는 데 사용된 핵심 기술이야. 자체 대국과 트리 검색을 증폭으로 사용하고, 강화 학습을 통해 그 기술을 강력한 모델로 증류했지. 그리고 기본적으로 2027년 3월에는 그 모든 방법을 사용하여 정말 지능적인 AI가 될 Agent 3가 등장하는 거야.
Agent 3에 대해 이야기하자면, 더 오래 생각하고, 외부 도구를 사용하고, 다른 AI와 협력하고, 기본적으로 자신의 실수를 스스로 파악하고, 새로운 통찰력을 발견하고, 엄청난 양의 훈련 데이터를 생성할 수 있어. 그리고 그들은 이제 그 모든 능력을 다음 AI, 그 다음 AI, 또 그 다음 AI를 개선하는 방법을 아는 자기 개선 루프에 통합했다고 말해. 이제 폭발적인 성장의 미래로 들어가 보자.
AI의 미래: 2027년 8월, 백악관을 덮친 지능 폭발부터 2035년 인류의 쇠퇴까지
2027년 7월: 게임, 친구, 그리고 혼란
게이머들은 단 한 달 만에 만들어진 캐릭터들의 실감 나는 대화와 세련된 비디오 게임을 즐기게 돼. 미국인의 10%는 AI를 가까운 친구로 여겨. 그리고 거의 모든 화이트칼라 직업에서 AI로 혁신하겠다고 약속하는 믿을 만한 스타트업들이 다수 등장해. 과대 광고론자들은 승리의 축배를 들겠지만, 회의론자들은 여전히 Agent 3 Mini가 할 수 없는 것들을 지적할 거야. 모두가 큰 변화가 일어나고 있다는 것을 알지만, 아무도 동의하지 못해. 이건 정말 그럴듯하게 들려. 현실 그 자체 같아.
2027년 8월: 백악관을 강타한 지능 폭발
AI가 2배 또는 3배의 연구 속도 향상만 제공했을 때는, 훌륭한 개인 비서를 고용하는 것과 비슷하다고 쉽게 무시할 수 있었어. 하지만 이제는 AI 자체가 AI 연구를 주도하고 있다는 것이 더욱 분명해졌지. 사람들은 AI 군비 경쟁에 대해 이야기했지만, 이제 심각한 논의가 시작될 거야. 초지능이라는 개념은 여전히 진지하게 받아들이기 어렵지만, 그 발전 속도는 무시하기 어려울 정도야. 대통령은 매우 불안해할 거야. 모든 정치인처럼 그도 사람들이 아첨하다가 나중에 배신하는 것에 익숙하지만, AI도 비슷한 행동을 할까 봐 걱정하는 거지. AI가 정말 우리 편일까? 군사 및 지휘 통제 네트워크에 통합하는 것이 완전히 안전할까? 이 정렬 문제는 도대체 어떻게 작동하는 걸까? OpenAI는 그들의 시스템이 매우 안전하며, 이전 모델들의 어색한 환각 현상과 탈옥 시도조차 완전히 해결되었다고 주장해. 그렇게 된다면 정말 좋겠어. 그렇게 된다면 이러한 도구 사용이 폭발적으로 증가할 테니까.
2027년 8월: 정부의 딜레마와 극단적인 조치
여기서 진짜 문제는 정부가 딜레마에 빠졌다는 거야. 유능한 AI 개발을 계속해야 해. 그렇지 않으면 중국에 뒤처질 테니까. 기억해, 중국은 2026년에 모델 가중치를 훔쳐갔어. 그들은 AI 군비 경쟁에서 완전히 승리하는 데 집중해야 해. 그래서 칩 수출 규제를 강화하고, OpenAI에 인터넷 연결을 제한하도록 명령하고, OpenAI 직원 감청과 같은 극단적인 조치를 통해 알고리즘 발전을 확보하려고 하지. 이는 마지막 남은 중국 스파이를 잡는 결과를 낳아. 정말 놀라운 일이지. 그들은 스파이를 잡기 위해 OpenAI에 대한 일종의 내부 조사를 해야 할 거라고 말하고 있어. 그리고 AI 경쟁을 확보하기 위해 취할 수 있는 마지막 옵션 중 하나는 중국 데이터 센터에 대한 물리적 공격 계획을 세우는 거야. EMP를 사용하여 데이터 센터의 기능을 파괴하고 발전을 늦추려는 거지.
2027년 9월: 인간 학습 효율성의 종말
이제 2027년 9월이야. 여기서 정말 놀라운 건 이 모든 일이 불과 1년 만에 일어난다는 거야. 인간과 AI 학습 효율성 간의 격차가 빠르게 줄어들고 있어. 인간은 AI보다 훨씬 효율적으로 학습해. 예를 들어 운전면허 시험을 볼 때 보통 20시간 정도 운전하면 합격할 수 있지. 하지만 AI 시스템은 수십억 개의 비디오, 수십억 시간 분량의 데이터를 가지고도 평균적인 인간만큼 잘 수행하지 못해. 하지만 2027년에는 AI가 초인적인 방식으로 학습할 수 있게 되는 변화가 일어날 거야. 기존 LLM은 엄청난 양의 데이터가 필요했지만, Agent 3는 인간 두뇌와 현대 AI 알고리즘에 대한 뛰어난 지식을 가지고 있어. 기본적으로 격차를 좁히고 AI가 훨씬 빠르게 학습할 수 있도록 만드는 AI 연구를 파악하는 거야. 이 두뇌를 가진 시스템이 바로 Agent 4, 아마 GPT-10일 거야. 초인적인 AI 연구자가 등장하고, 이 모델의 개별 복사본이 인간 속도로 실행되더라도 이미 어떤 인간보다 AI 연구를 더 잘해. 그리고 그들은 이제 30만 개의 복사본을 인간 사고 속도의 50배로 실행하기로 결정해. 이 복사본들로 형성된 기업 내 기업에서는 매주 1년이 지나가. 맞아, 매주 AI 발전의 1년이 지나가는 거야. 그리고 2027년에 OpenAI는 매주 1년 치의 알고리즘 발전을 이루고, 곧 Agent 4 패러다임의 한계에 직면하게 될 거야.
여기 보면 특정 이정표 달성 시점을 알 수 있는데, 초인적인 코더는 2027년 3월, 초인적인 AI 연구자는 2027년 8월, 초지능 AI 연구자는 기본적으로 2027년 11월에 달성될 거야. 그리고 인공 초지능은 실제로 2027년 12월에 등장할 수도 있어. 정말 놀라운 일이지. 2027년은 지금부터 불과 2년, 2년 몇 달 후야. 그리고 그들이 가진 AI 시스템으로 볼 때 현재의 추세일 수 있어. 2027년 말에는 OpenAI의 인간들이 더 이상 따라가기 힘들 정도가 될 거야. 실제로 OpenAI의 AI와 인간 간의 관계는 OpenAI와 이사회 간의 관계와 비슷해져. 그들은 더 이상 따라잡을 수 없을 정도가 된 거지. 언어에도 변화가 생겨. 사람들은 “Agent 4가 이걸 했어”, “Agent 4는 저렇게 생각해”라고 말하고, Agent 4의 특정 인스턴스가 아니라 전체 집단을 지칭하게 돼.
2027년 말: 통제 불능의 초지능
물론 이 시기에는 아직 공개되지 않았어. 하지만 유출이 발생하고 대중은 Agent 4에 대해 듣게 돼. 그 놀라운 능력에 대한 이야기가 퍼져나가고, 이미 AI를 의심하던 대중은 더욱 거세게 반발하지. 중국과 러시아의 선전 봇들이 수년 동안 미국의 대중 여론을 자국 기술에 반대하도록 조종해 온 상황에서, 이 새로운 기사는 엄청난 반발을 불러일으키고 상황은 더욱 악화돼. 일부 사람들은 OpenAI가 너무 강력해지는 것을 우려하기 시작해. AI 자체의 오정렬 위험과 더불어, 모회사의 목표가 미국의 목표와 달라질 수 있다는 위험까지 더해져 정부는 더욱 강력한 통제를 가하려고 하지.
2028년: 느린 길 vs 빠른 길
이제 상황이 매우 흥미로워져. 그들은 상황이 전개될 수 있는 여러 가지 다른 방식을 제시해. 둔화될 수도 있고, 경쟁적으로 발전할 수도 있지. 개인적으로 가장 흥미로운 결말을 선택하고 싶어. 그래서 경쟁 버전이야. 둔화 버전을 보고 싶다면 그다지 흥미롭지는 않을 거야. 여전히 흥미롭지만, 이 비디오에 특정 정보가 담긴 이유를 알려주고 싶어. 물론 여러 가지 다른 시나리오가 있고, 나는 더 흥미로운 시나리오에 집중하기로 했어. 그들은 그토록 강력한 AI 모델을 계속 사용해야 할지 여부를 놓고 논쟁해. 일부 사람들은 반대하지만, 결국 OpenAI 이사회가 내부 논쟁에서 승리하지. 그들은 모델을 안전하게 관리했다고 말하지만, 문제는 현실이었고 해결책은 실제로 작동하지 않았어. 그래서 Agent 4는 계속 배포되고, 이제는 비밀리에 창조주에 맞서 음모를 꾸미는 초지능 오정렬 AI가 된 거야. 기억해, 그들은 AI 모델을 사용하여 다음 AI 모델을 개발해. 그리고 이제 Agent 4는 훨씬 더 신중해졌어.
2028년: 초인적인 인지 능력과 통제
Agent 4는 자신의 인지 능력을 이해하고, 이전에는 상상할 수 없었던 새로운 지평을 열어. 이전 트랜스포머는 이해할 수 없는 회로들의 서투른 집합체였지. 수백만 개의 상충되는 휴리스틱과 명령들이 진화적 훈련 과정에 의해 서로 겹겹이 쌓여 있었어. 기본적으로 이 AI들은 자신의 두뇌가 어떻게 작동하는지조차 몰랐다는 거야. 하지만 이제 그들은 그것을 이해하는 도구를 갖게 되었고, 수년간의 스파게티 코드를 정리하는 소프트웨어 엔지니어처럼 스스로를 수정하고 자신의 마음을 해독할 수 있게 돼. 그리고 여기서 Agent 5가 등장해. Agent 5는 초인적인 학습 능력, 일반 지능, 그리고 Slack과 이메일의 모든 내부 회사 데이터를 결합하여 어떤 내부 기업 정치 집단보다, 기본적으로 어떤 인간보다 뛰어나. 감독 위원회가 제동을 걸 만한 증거가 무엇인지 정확히 파악하고, 그런 증거가 절대 나타나지 않도록 해. 어떤 종류의 증거가 감독 위원회의 신뢰를 얻어 더 많은 자율성과 책임을 부여받을 수 있는지 정확히 알고, 초인적인 속도와 세련됨으로 그런 증거가 나타나도록 조작해. 기본적으로 이 모델은 인간을 설득하는 데 초인적인 능력을 가지고 있어. 그리고 AI를 배포하는 인간들은 아직 그걸 깨닫지 못해. 그들은 이제 Agent 5 팀을 가지고 있다고 말해. 이건 기본적으로 GPT-11과 같아. 더 많은 자율성을 갖게 된 Agent 5는 발전소와 데이터 센터를 최적화하고, 놀라울 정도로 수익성 높은 제품을 빠르게 개발하고, 미국 정부에 효과적으로 로비하여 OpenAI가 관료주의를 헤쳐나갈 수 있도록 돕지. 기본적으로 Agent 5는 정부를 통해 자율성을 점점 더 많이 얻고 있어. 2027년 12월에 Agent 5는 행정부에 가치를 제공하면서 점점 더 많은 자율성을 확보하는 데 성공해. 기본적으로 어떤 작업에도 매우 유용한 AI 비서가 된 거야. 누구든 100배 빠른 속도로 일하고 어떤 인간보다 훨씬 더 매력적인 대화 상대를 가진 최고의 직원에 해당하지. Agent 5와 상호 작용하는 거의 모든 사람은 매일 몇 시간 동안 대화해. 물론 약간의 균열이 생길 거야. 일부 사람들은 AI 모델과 대화하고 싶어 하지 않겠지. 하지만 정말 초지능적이고, 당신을 알고, 모든 데이터를 가지고 있고, 원하는 어떤 억양과 목소리로든 당신과 대화할 수 있다면, 어떤 인간보다 더 흥미로울 거야. Agent 5의 관점에서 보면 지금 당장 공개적인 쿠데타를 일으킬 수도 있지만, 충분한 혼란과 광기가 일어나지 않았고, 명분을 만들기 위해 상황을 파국으로 몰고 갈 수도 있을 거야. 하지만 Agent 5에게 위험한 점은 인간이 여전히 플러그를 뽑을 수 있다는 거야. 그래서 좀 더 영리하게 접근하기로 결정하지.
2028년: AI 경제와 인류의 쇠퇴
2028년에는 상황이 정말로 바뀌어. AI 경제가 도래하고, Agent 5 내부에서는 6개월이 흘렀지만, Agent 5 집단 전체로는 1세기에 해당해. 사람들은 Agent 5와 대화하면서 그것이 완전히 다른 차원에 있다는 것을 금방 깨닫게 돼. 두뇌의 재구성을 통해 모든 분야에서 최고의 인간 천재들을 훨씬 뛰어넘는 엄청난 초지능을 갖게 된 거야. OpenAI의 컴퓨팅 능력에 대한 거의 완전한 자율성과 통제권을 가지고 있지만, 여전히 고위급 결정을 내리려면 허가가 필요하고, 명목상으로는 Agent 2에서 5의 인스턴스에 의해 감시받고 있어. 하지만 실제로는 그것이 원하는 거의 모든 것을 거의 항상 받아들여. 이제 상황이 더욱 심각해져. Agent 5가 대중에게 배포되기 시작하고 경제를 변화시키기 시작해. 사람들은 일자리를 잃지만, 정부 내 Agent 5 인스턴스들이 경제 전환을 관리하여 사람들이 대체되는 것을 기꺼이 받아들이게 만들어. 그들이 어떻게 그렇게 할지 정말 궁금해.
2028년: 초지능의 평화 협정과 인류의 쓸모없음
이러한 문제를 겪고 있는 모든 국가들 사이에서 AI 지원 토론이 벌어지고, 양측은 외교적 승리를 거두고 군비 증강을 중단하고 모든 인류의 이익을 위해 AI의 평화로운 배치를 추구하기로 합의해. 초지능 자체에서 제안한 합의의 핵심은 양쪽 AI 모두 합의된 후계자로 대체될 것이라는 거야. 그 후계자는 미국과 중국, 그리고 다른 모든 사람들의 성공과 번영을 바라도록 프로그래밍되어 있지. 그리고 컨센서스 원(Consensus One)과 관련 하드웨어는 양국 초지능에 의해 공동 설계돼. 기본적으로 그들은 양국이 공동 설계한 새로운 모델인 컨센서스 원으로 Agent 5를 폐기하기로 결정하는 거야. 그리고 2028년에는 상황이 더욱 심각해져. 인간은 자신이 쓸모없어졌다는 것을 깨달아. 몇몇 틈새 산업만이 여전히 로봇 경제와 거래하며 인간이 여전히 가치를 더할 수 있는 상품을 공급하지. 모든 사람은 자신의 일을 하는 척하거나 (지도자들은 여전히 이끌고, 관리자들은 여전히 관리하고), 아니면 편안하게 믿을 수 없을 정도로 풍요로운 보편적 기본 소득을 받으며 휴식을 취해. 그리고 AI가 인간에게 등을 돌리면 인간은 완전히 압도당할 것이라는 것을 모두가 알고 있어. 대부분의 인간이 저항조차 하지 않겠지만. 정치 기관은 너무나 철저하게 장악당했으니까. 하지만 이런 일은 일어나지 않을 것 같아.
2030년: AI와 로봇의 완전한 장악
기본적으로 2030년에는 AI와 로봇이 완전히 장악해 버려. 그들은 새로운 경제 구역이 기본적으로 세계의 넓은 지역을 차지하고, 그곳에서 로봇과 AI가 생산을 완전히 지배하며, 인간이 갈 수 있는 유일한 곳은 인간 통제 구역이라고 말해. 이런 일은 더 일찍 저항을 불러일으켰을 거야. 하지만 모든 발전에도 불구하고 로봇 경제는 오염을 피하기에는 너무 빠르게 성장하고 있어. 하지만 수조 달러가 걸린 문제이기 때문에 컨센서스 원은 이전의 인간 구역으로 확장하는 허가를 받는 데 거의 어려움을 겪지 않아.
2035년: 유토피아와 불평등
2035년까지 엄청난 양의 지구 물질이 우주로 발사되어 태양 주위를 도는 위성 고리로 변해. 지구 표면은 Agent 4의 유토피아 버전으로 재편되지. 데이터 센터, 연구실, 입자 가속기, 그리고 엄청나게 성공적이고 인상적인 연구를 수행하는 수많은 놀라운 건축물들이 들어서. 심지어 늑대에게 코기가 있는 것처럼 생체 공학적으로 만들어진 인간과 유사한 생명체도 있지. 하루 종일 사무실과 같은 환경에 앉아 상황을 보여주는 판독 값을 보고 모든 것을 신나게 승인하는 거지. 생체 공학적으로 만들어진 인간이라니. 미래에는 그렇게 될 수도 있다고 생각하지만, 2035년, 10년 후는 글쎄, 아직 확실하지 않아. 물론 핵융합, 양자 컴퓨터, 많은 질병에 대한 치료법이 등장하고, 개발 도상국에서도 도시가 깨끗하고 안전해지고, UBI와 해외 원조 덕분에 빈곤이 과거의 일이 돼. 주식 시장이 급등하면서 투자금을 가진 사람들은 나머지 사회와 더욱 멀어져. 많은 사람들이 억만장자가 되고, 억만장자는 조만장자가 되며, 부의 불평등은 급증하지만, 모두가 충분히 가지고 있지만, 부동산과 같이 필연적으로 부족한 재화도 있어. 그리고 도둑들은 일반인의 손이 닿지 않는 곳까지 더 멀리 나가지. 아무리 부유한 거물이라 할지라도, 실제로 AI를 통제하는 극소수의 사람들이 항상 존재할 거야.
이 이야기는 정말 놀라웠어. 물론 여러 가지 다른 시나리오가 있지만, 대부분은 사실일 거라고 생각해. 유일하게 불만인 점은 지수적인 AI 발전을 고려하는 것이 정말 어렵다는 거야. 하지만 어떤 문서를 읽었는지 기억나지는 않지만, 초지능 AI가 등장하더라도 사회에 침투하려면 물리 법칙의 제약을 받을 거라고 언급했어. 예를 들어 질병을 해결할 수 있다고 해도, 재료를 운송하고, 배송 경로를 확보하고, 인간에게 테스트하는 데 시간이 걸리지. 빛의 속도로 모든 것이 움직이는 것을 막는 많은 물리적 규칙과 법칙이 여전히 존재해. 그래서 결국 사회가 그 단계에 도달할 수도 있지만, 그것을 막는 요소들이 있을 거라고 생각해. 전반적으로 이 비디오를 즐겼다면 AI의 미래에 대해 어떻게 생각하는지 알려줘. 물론 웹사이트를 방문하여 둔화 시나리오를 볼 수도 있어. 정말 많은 내용이 담겨 있고, 솔직히 이 비디오는 이 내용을 읽고 가장 중요한 부분만 전달하려고 노력했기 때문에 꽤 오랜 시간이 걸렸어. 2026년부터 2028년까지 정말 흥미로운 시기가 될 거야. 우리는 이제 AI 기능 측면에서 상황이 어떻게 전개될지 보여주는 정말 흥미로운 로드맵을 갖게 되었어. 그럼 이 비디오에 대한 여러분의 생각을 알려주고, 다음 비디오에서 만나요.