Stop Thinking, Just Do!

Sungsoo Kim's Blog

Hopes, fears and predictions for future of AI

tagsTags

27 April 2025


Article Source


“Godfather of AI” on hopes, fears and predictions for future of AI

Nobel laureate Geoffrey Hinton, often called a “godfather of artificial intelligence,” spoke with Brook Silva-Braga at the Toronto offices of Radical Ventures about the future of AI earlier this month — nearly two years after they first sat down to discuss the evolving technology. He shares some of his early takeaways about AI, which he says has evolved “even faster than [he] thought.”

주요 핵심

이번 대화는 인공지능(AI)의 급격한 발전과 그로 인한 미래에 대한 전망, 그리고 관련 규제 및 윤리적 문제에 대한 심층적인 논의를 담고 있습니다. 주요 핵심 내용은 다음과 같습니다.

1. AI 발전 속도와 미래 전망:

  • 예상보다 빠른 AI 발전: 특히 스스로 행동할 수 있는 AI 에이전트의 등장으로 이전보다 더 큰 위험성을 내포하고 있다고 평가.
  • AGI(인공 일반 지능) 도래 시점: 과거 20년 이상으로 예상했으나, 현재는 4년에서 19년 사이, 혹은 10년 이내로 더 빠르게 도래할 가능성을 높게 보고 있음.
  • AGI의 긍정적 시나리오: 매우 똑똑한 비서처럼 작동하여 인간의 생산성을 극대화하는 미래를 제시.

2. AI의 긍정적 영향:

  • 의료 분야 혁신: 의료 영상 판독, 질병 진단, 신약 개발 등에서 획기적인 발전 예상. 특히 방대한 데이터를 학습한 AI의 진단 능력은 인간 의사를 능가할 것으로 전망.
  • 교육 분야 혁신: 개인 맞춤형 튜터링을 통해 학습 속도 향상 기대. 대학 시스템에는 도전이 될 수 있지만, 개인 학습에는 긍정적 영향 예상.
  • 기후 변화 해결 기여: 더 나은 재료 개발, 배터리 효율 증대, 탄소 포집 기술 등에 AI 활용 가능성 제시.
  • 산업 전반의 효율성 증대: 데이터 예측 능력 향상을 통해 거의 모든 산업에서 생산성 향상 기대. 고객 센터 응대 등에서도 AI 활용 증가 예상.

3. AI로 인한 우려와 문제점:

  • 일자리 감소: 고객 센터 직원, 변호사, 기자, 회계사 등Routine 업무를 담당하는 직업군에서 대규모 실업 발생 가능성 우려.
  • 소득 불균형 심화: AI로 인한 생산성 증대가 부의 극단적인 편중을 심화시키고, 저소득층의 어려움을 가중시킬 가능성 경고.
  • AI의 통제 불능 및 인류 위협 가능성 (P-둠): 전문가들은 1%에서 99% 사이의 가능성을 제시하며, 특히 일론 머스크와 유사하게 10~20%의 비교적 높은 위험성을 제시.
  • 악의적 행위자의 AI 오용: 사이버 공격, 바이러스 설계, 선거 조작, 가짜 동영상 제작, 자율 살상 무기 개발 등 AI의 부정적 활용에 대한 심각한 우려 표명.
  • 대규모 감시 사회 심화: 중국의 사례를 들며 AI를 이용한 감시 시스템의 위험성을 지적. 안면 인식 기술의 오류 사례를 통해 기술적 문제점도 언급.

4. AI 규제 및 윤리적 문제:

  • AI 안전 연구의 필요성: AI가 인류에게 위협이 되지 않도록 안전 연구에 대한 적극적인 투자와 규제 마련 촉구. 현재 대기업들의 소극적인 태도 비판.
  • AI 모델 가중치 공개의 위험성: 대규모 AI 모델의 가중치 공개는 핵무기의 농축 우라늄과 유사하게 악의적 사용의 장벽을 낮추는 위험한 행위라고 경고.
  • AI 개발 주도권 경쟁: 미국과 중국 간 AI 개발 경쟁 심화 우려. 장기적으로 기술 발전 속도를 늦출 뿐이며, 협력의 필요성 강조.
  • 저작권 문제: AI가 방대한 데이터를 학습하는 과정에서 발생하는 저작권 침해 논란 제기. 인간의 창작 활동과 AI의 학습 방식을 비교하며 복잡한 문제임을 지적.
  • 보편적 기본 소득 (UBI) 논의: AI로 인한 실업 문제에 대한 대안으로 UBI가 필요할 수 있지만, 인간의 존엄성 문제를 완전히 해결하지는 못할 것이라고 지적.
  • 로봇 권리 논의: 초지능 AI의 등장 시 권리 부여 문제에 대해 인간 중심적인 관점을 강조하며, AI가 아무리 똑똑해도 인간과 동일한 권리를 가질 필요는 없다는 입장 표명.

5. 개인적 경험 및 의견:

  • 노벨상 수상 당시의 황당하고 비현실적인 경험 공유.
  • 노벨상 수상이라는 권위를 이용하여 AI의 잠재적 위험성을 알리고 규제의 필요성을 강조하고자 하는 의지 표명.
  • 과거 긍정적으로 평가했던 Google의 AI 관련 행보에 대한 실망감 토로.
  • OpenAI의 안전 중심 가치 퇴색 및 상업화 추구에 대한 비판적 시각 제시.
  • AI 업계의 비밀주의 문화(NDA)가 대중의 이해를 어렵게 만드는 요인인지에 대한 신중한 입장 표명.

전반적으로 AI의 혁신적인 잠재력과 동시에 심각한 위험성을 경고하며, 미래 사회의 안정과 번영을 위해 적극적인 안전 연구와 윤리적 규제 마련의 중요성을 강조하는 내용입니다.

두 해하고 한 달 전에 마지막으로 이야기를 나눴는데, 그 두 해 동안 미래에 대한 당신의 기대가 어떻게 진화했는지 궁금합니다. 인공지능이 제가 생각했던 것보다 훨씬 빠르게 발전했어요. 특히, 질문에 답하는 AI보다 더 위험한 AI 에이전트라는 것이 생겨났는데, 왜냐하면 그것들은 세상에서 여러 가지 일을 할 수 있기 때문이죠. 그래서 상황이 이전보다 더 무서워졌다고 생각합니다. AGI, 초지능, 뭐든 아주 뛰어난 AI 시스템이라고 부르고 싶은데, 그게 언제 올 거라고 생각하는지 대략적인 시간표가 있으신가요? 한 해 전에는 5년에서 20년 사이에 올 가능성이 크다고 생각했어요. 음, 그러니까 이제는 4년에서 19년 사이에 올 가능성이 크다고 믿어야겠죠. 아직도 그렇게 생각하는 것 같아요. 알겠습니다. 우리가 이야기했을 때보다 더 빨라졌네요. 그때는 아직 20년 정도 걸릴 거라고 생각하셨잖아요. 네. 이제는 10년 이내에 올 가능성이 크다고 생각해요. 그러니까 4년에서 19년 사이에 그 시점에 도달한다는 건데, 그게 어떤 모습일까요?

만약 제가 장악하기로 결정한다면 어떤 모습일지 추측하고 싶지 않아요. 그렇게 할 수 있는 방법은 너무나 많아요. 그리고 장악하는 것에 대해서만 이야기하는 것도 아니에요. 분명히 그 이야기도 나누게 되겠지만, 그런 종류의 장악은 제쳐두고, 초지능 인공지능 같은 것이 어떤 종류의 능력을 갖게 될지, 혹은 무엇을 하게 될지 이야기해 보죠. 가장 좋은 시나리오는 우리 모두가 거대한 회사의 어리석은 CEO와 같고, 실제로 모든 것을 작동시키지만 CEO가 원하는 대로 하는 매우 똑똑한 비서를 갖게 되는 거예요. 그래서 CEO는 자신이 일을 하고 있다고 생각하지만, 실제로는 모든 것이 비서에 의해 이루어지고, CEO는 자신이 결정한 모든 것이 잘 되니까 기분이 아주 좋은 거죠. 그게 좋은 시나리오예요. 그리고 저는 당신이 이 미래에 대해 낙관적으로 생각하는 몇 가지 영역을 지적하는 것을 들었어요. 네, 맞아요. 그럼 각각의 영역을 살펴보죠. 예를 들어 의료 분야는 훨씬 더 나아질 거예요. 예를 들어 의료 영상 판독 능력이 훨씬 좋아질 거예요. 그건 작은 일이죠. 몇 년 전에 제가 예측했는데, 지금쯤이면 전문가 수준일 거라고 했지만, 지금은 전문가와 비슷한 수준이에요. 곧 훨씬 더 나아질 거예요. 왜냐하면 훨씬 더 많은 경험을 하게 될 테니까요. 이런 것들은 수백만 장의 엑스레이를 보고 수백만 장의 엑스레이로부터 배울 수 있지만, 의사는 그렇게 할 수 없죠. 아주 훌륭한 가정의가 될 거예요. 당신의 아주 희귀한 질병을 가진 사람들을 여섯 명이나 포함해서 1억 명의 사람들을 진료한 가정의를 상상해 보세요. 훨씬 더 나은 가정의가 될 거예요. 당신의 유전체 정보와 당신의 모든 검사 결과, 그리고 당신 친척들의 모든 검사 결과를 통합하고, 모든 병력을 기억하고 잊지 않는 가정의 말이죠. 이미 훨씬 더 나을 거예요.

AI가 의사와 결합하면 어려운 진단에서 의사 혼자보다 훨씬 더 잘해요. 그래서 우리는 이런 것들로부터 훨씬 더 나은 의료 서비스를 받게 될 거고, 더 나은 약도 설계할 거예요. 교육도 또 다른 분야죠. 네, 교육에서 우리는 개인 교사가 있으면 학습 속도가 약 두 배 빠르다는 것을 알고 있어요. 이런 것들은 결국 당신이 무엇을 잘못 이해하고 있는지 정확히 알고, 당신에게 그것을 명확히 설명하기 위해 어떤 예를 들어야 할지 정확히 아는 매우 훌륭한 개인 교사가 될 거예요. 그래서 아마 당신은 이런 것들로 학습 속도가 세 배나 네 배 빨라질 수도 있을 거예요. 대학에는 나쁜 소식이지만, 사람들에게는 좋은 소식이죠. 네. 대학 시스템이 이 시기를 살아남을 거라고 생각하세요? 많은 측면이 살아남을 거라고 생각해요. 좋은 대학의 좋은 그룹에서 대학원생이 진정으로 독창적인 연구의 가장 좋은 원천이라는 것은 여전하다고 생각하고, 그건 아마 살아남을 거예요. 일종의 도제 시스템이 필요하죠.

어떤 사람들은 이것이 기후 위기를 해결하는 데 도움이 되기를 희망합니다. 저는 도움이 될 거라고 생각합니다. 더 나은 재료를 만들 수 있게 될 거예요. 예를 들어 더 나은 배터리를 만들 수 있을 거예요. 분명히 AI가 그것들을 설계하는 데 관여할 거예요. 사람들은 대기에서 탄소를 포집하는 데 그것을 사용하고 있습니다. 에너지 고려 사항 때문에 그것이 작동할 거라고 확신하지는 않지만, 그럴 수도 있습니다. 일반적으로 우리는 훨씬 더 나은 재료를 얻게 될 것입니다. 우리는 심지어 상온 초전도체를 얻을 수도 있는데, 이는 사막에 많은 태양광 발전소를 건설하고 수천 마일 떨어진 곳에 있을 수 있다는 것을 의미합니다. 우리가 확인해야 할 다른 긍정적인 점이 있을까요? 거의 모든 산업에서 더 효율적으로 만들 것입니다. 거의 모든 회사가 데이터에서 예측하기를 원하고 AI는 예측을 매우 잘하기 때문입니다. 이전의 방법보다 거의 항상 더 낫습니다. 따라서 생산성이 크게 증가할 것입니다. 고객 센터에 전화하거나 Microsoft에 전화하여 작동하지 않는 것에 대해 불평하면 고객 센터의 담당자는 실제로 훨씬 더 많은 정보를 알고 있는 AI가 될 것입니다. 몇 년 전에 직업 대체에 대해 물었을 때, 당신은 그것이 큰 문제가 아니라고 생각했던 것 같습니다. 지금도 그렇게 생각하십니까? 아니요, 큰 문제가 될 거라고 생각합니다. 지난 몇 년 동안 AI가 너무나 발전해서, 만약 제가 고객 센터에서 일한다면 매우 걱정될 것입니다. 네, 아니면 변호사, 기자, 회계사로서의 직업도 마찬가지고요. 일상적인 일을 하는 모든 직업이요. 저는 조사 저널리스트는 많은 주도성과 약간의 도덕적 분노가 필요하기 때문에 상당히 오래 지속될 거라고 생각하고, 저널리스트는 당분간은 계속 일할 수 있을 거라고 생각하지만, 고객 센터 외에 어떤 직업에 대해 걱정하십니까? 음, 모든 일상적인 직업, 예를 들어 일반적인 비서직이나 준법률가 같은 직업은 이미 끝났다고 봐야죠. 이런 직업들이 모두 사라지는 세상에서 우리가 어떻게 나아가야 할지 생각해 보셨나요? 마치 이런 거죠. 생산성을 높일 수 있다면 모든 사람이 이익을 얻어야 해요. 그런 직업에 종사하는 사람들은 주당 60시간 대신 몇 시간만 일할 수 있고, 더 이상 두 개의 직업을 가질 필요도 없어요. AI 보조를 사용해서 생산성이 똑같이 높아졌기 때문에 한 개의 직업으로 많은 돈을 받을 수 있죠. 하지만 우리는 그렇게 되지 않을 거라는 걸 알아요. 극도로 부유한 사람들은 훨씬 더 부유해지고, 그다지 부유하지 않은 사람들은 세 개의 직업을 가져야 할 거라는 걸 알죠. 저는 아무도 이 질문을 좋아하지 않지만, 우리는 이 질문을 던지고 싶어요. 이른바 ‘p-둠’의 가능성은 얼마나 될까요? 그리고 저는 이것이 꽤 가능한 일이라고 보시는지, 아니면 가능성이 그다지 높지 않더라도 너무나 끔찍해서 매우 우려해야 할 일이라고 보시는지 궁금합니다. 확률 척도에서 어디쯤에 계신가요?

음, 제 생각에는 그 분야의 대부분 전문가들이 동의할 텐데, 만약 이런 것들이 우리보다 훨씬 똑똑해져서 우리로부터 통제권을 빼앗고 장악할 가능성을 고려한다면, 그럴 가능성은 1%보다 훨씬 높고 99%보다 훨씬 낮을 거예요. 네, 거의 모든 전문가들이 그 점에는 동의할 수 있을 거예요. 하지만 그건 그다지 도움이 되지 않죠. 아니요, 하지만 좋은 시작이죠. 일어날 수도 있고, 일어나지 않을 수도 있고, 숫자에 대해서는 의견이 분분하죠. 저는 불행히도 이 문제에 대해 일론 머스크와 동의하는 입장에 있어요. 즉, 이런 것들이 장악할 가능성이 10%에서 20% 정도라는 거죠. 하지만 그건 순전히 추측일 뿐이에요. 네. 제 생각에는 합리적인 사람이라면 1%보다 훨씬 높고 99%보다 훨씬 낮다고 말할 거예요. 하지만 우리는 경험이 전혀 없는 것을 다루고 있어요. 확률을 제대로 추정할 방법이 없어요. 제 생각에는 이 시점에서 우리가 알아낼 수밖에 없을 것 같아요. 우리는 알아낼 거예요. 네, 왜냐하면 이런 것들이 이미 우리보다 훨씬 똑똑해질 가능성이 매우 높아 보이기 때문이죠. 이미 우리보다 훨씬 더 많은 지식을 가지고 있어요. GPT-4는 일반인보다 수천 배 더 많은 것을 알고 있어요. 모든 분야에서 아주 뛰어난 전문가는 아니지만, 결국에는 모든 분야에서 뛰어난 전문가가 될 거예요. 이전에는 아무도 보지 못했던 다른 분야 간의 연결 고리를 찾아낼 수 있을 거예요. 네, 네. 저는 또한 이런 점이 궁금해요. 좋아요, 10%에서 20%의 끔찍한 가능성이 있지만, 혹은 그보다 많거나 적을 수도 있지만, 그냥 80%의 확률로 그들이 우리를 장악하고 쓸어버리지 않는다고 가정해 보죠. 그게 가장 가능성 높은 시나리오인데, 최악의 결과가 아니라면 여전히 순긍정적일까요, 아니면 순부정적일까요? 좋아요, 그들이 장악하는 것을 막을 수 있다면요.

음, 그건 좋을 거예요. 그렇게 될 수 있는 유일한 방법은 우리가 진지하게 노력하는 것뿐이에요. 하지만 일단 사람들이 이런 일이 일어나고 있다는 것을 이해하면, 진지하게 노력하라는 압력이 커질 거라고 생각해요. 지금처럼 이익만 추구하면서 계속 나아간다면, 그들은 장악할 거예요. 우리는 대중이 정부에 압력을 가해서 이 문제에 대해 진지한 조치를 취하도록 해야 해요. 하지만 AI가 장악하지 않더라도, 악의적인 행위자들이 AI를 나쁜 일에 사용할 수 있다는 문제가 있어요. 예를 들어 중국에서 이미 일어나고 있는 대규모 감시 같은 거죠. 중국 서부에서 위구르족에게 일어나고 있는 일을 보면, AI는 그들에게 끔찍한 존재예요. 토론토로 가는 비행기를 타기 위해 저는 미국 정부로부터 안면 인식 사진을 찍어야 했어요. 캐나다에 들어올 때 여권을 넣으면 여권과 당신의 얼굴을 비교하죠. 저를 인식하는 데 매번 실패해요. 다른 모든 국적의 사람들은 인식하는데, 저만 인식을 못 해요. 신경망을 사용한다고 생각하기 때문에 특히 화가 나요.

예외를 두지 않았나요? 아니요. 그냥 저에게 뭔가 마음에 안 드는 점이 있는 것 같아요. 음, 그걸 적용할 곳을 찾아야겠어요. 여기가 딱 좋겠네요. 노벨상에 대해 조금 이야기해 볼까요? 수상 소식을 들었던 날의 상황을 묘사해 주시겠어요? 음, 저는 반쯤 잠들어 있었고, 휴대폰을 침대 옆 탁자에 뒤집어 놓고 소리를 꺼놨어요. 하지만 전화가 오면 화면이 켜지고, 제가 베개에 머리를 이쪽으로 대고 누워 있었기 때문에 희미한 빛줄기가 보였어요. 휴대폰이 저를 향하고 있었거든요. 휴대폰이 저를 향하고 있었어요. 그 희미한 빛줄기가 보였고, 저는 캘리포니아에 있었는데, 새벽 1시였어요. 동부 해안이나 유럽에서 저에게 전화하는 대부분의 사람들은… 방해 금지 모드를 사용하지 않나요? 아니요, 아니요. 알겠습니다. 그냥 소리를 껐어요. 소리를 껐어요. 알겠습니다. 그리고 새벽 4시에 동부 해안에서 누가 저에게 전화하는지 궁금했어요. 정말 이상했어요. 그래서 전화를 받았는데, 제가 모르는 국가 코드가 있는 긴 전화번호였어요. 그리고 스웨덴 억양의 목소리가 들리더니 저인지 물어봤어요. 그래서 “네, 접니다”라고 했더니, “노벨 물리학상을 받으셨습니다”라고 하더군요. 음, 저는 물리학을 하지 않잖아요. 그래서 장난일 수도 있다고 생각했어요. 사실, 가장 가능성이 크다고 생각한 건 장난이었어요. 노벨상 발표가 곧 있을 거라는 건 알고 있었어요. 왜냐하면 데미스가 화학상 후보에 올랐는지 매우 궁금했고, 그게 다음 날 발표될 거라는 걸 알고 있었거든요. 음, 하지만 저는 물리학을 하지 않아요. 컴퓨터 과학에 숨어 있는 심리학자인데, 물리학상을 받다니요. 실수였을까요? 음, 한 가지 떠오른 건, 만약 실수라면 다시 가져갈 수 있을까 하는 거였어요. 하지만 며칠 동안 저는 다음과 같이 추론했어요. 심리학자가 물리학상을 받을 확률은 얼마나 될까? 아마 200만 분의 1 정도겠죠. 그럼, 제 꿈이라면 물리학상을 받을 확률은 얼마나 될까? 아마 2분의 1 정도겠죠. 그러니까 제 꿈에서 2분의 1이고, 현실에서 200만 분의 1이라면, 현실보다 꿈일 가능성이 백만 배 더 높은 거죠. 그래서 며칠 동안 저는 “이게 정말 꿈이 아닌지 확신해요?”라고 생각하면서 돌아다녔어요. 당신은 저를 아주 이상한 영역으로 끌고 들어갔지만, 이 논의의 일부이기도 해요. 어떤 사람들은 우리가 시뮬레이션 속에 살고 있고, AGI는 증거가 아니라 우리가 살고 있는 현실에 대한 힌트일 뿐이라고 생각해요. 네, 저는 그걸 별로 믿지 않아요. 좀 이상하다고 생각해요. 알겠습니다. 하지만 완전히 터무니없는 생각이라고는 생각하지 않아요. 매트릭스도 봤거든요. 아, 알겠습니다. 알겠습니다. 이상하지만 완전히… 알겠습니다. 여기서 노벨상에 대해 제가 좀 이야기하고 싶었던 부분이 있어요. 음, 당신이 당신의 신뢰도를 이용해서 세상에 메시지를 전달하고 싶다고 말했던 것 같아요. 그게 뭔지 설명해 주시겠어요? 네. 인공지능은 잠재적으로 매우 위험하고, 두 가지 종류의 위험이 있어요. 악의적인 행위자들이 나쁜 일에 사용하는 위험과, 인공지능 자체가 장악하는 위험이죠. 그리고 그건 아주 다른 종류의 위협이에요. 그리고 우리는 악의적인 행위자들이 이미 나쁜 일에 그것을 사용하고 있다는 것을 알아요. 예를 들어, 브렉시트 때 영국인들이 터무니없는 방식으로 유럽을 떠나도록 투표하게 만드는 데 사용되었어요. 케임브리지 애널리티카라는 회사가 페이스북에서 정보를 얻어서 인공지능을 사용했죠. 그리고 그 이후로 인공지능은 훨씬 더 발전했어요. 아마 트럼프를 당선시키는 데 사용되었을 거예요. 그들은 페이스북에서 정보를 얻었고, 그게 도움이 되었을 거예요. 확실히 알 수는 없어요. 왜냐하면 제대로 조사된 적이 없거든요. 하지만 지금은 훨씬 더 능숙해졌고, 사람들은 사이버 공격, 새로운 바이러스 설계, 선거 조작을 위한 명백한 가짜 동영상, 사람들에 대한 정보를 이용해서 그들을 분노하게 만들 맞춤형 가짜 동영상 같은 일에 훨씬 더 효과적으로 사용할 수 있어요.

자율 살상 무기. 모든 주요 무기 판매국들이 자율 살상 무기를 만들려고 바쁘게 움직이고 있습니다. 미국, 러시아, 중국, 영국, 이스라엘. 캐나다는 아마 너무 약해서 그런 걸 못 할 거예요. 그럼 문제는 무엇을 해야 하느냐입니다. 어떤 종류의 규제를 추구해야 한다고 생각하십니까? 좋아요, 우리는 두 가지 다른 종류의 위협, 즉 악의적인 행위자들이 나쁜 일에 사용하는 것과 AI 자체가 장악하는 것을 구별해야 합니다. 저는 주로 두 번째 위협에 대해 이야기했는데, 다른 위협보다 더 중요하다고 생각해서가 아니라 사람들이 그것을 공상 과학 소설이라고 생각했기 때문입니다. 그리고 저는 제 명성을 이용해서 아니라고 말하고 싶습니다. 그것은 공상 과학 소설이 아닙니다. 우리는 정말로 그것에 대해 걱정해야 합니다. 그리고 우리가 무엇을 해야 하는지 묻는다면, 그것은 기후 변화와 같지 않습니다. 기후 변화는 탄소 배출을 멈추면 장기적으로는 괜찮을 것입니다. 당분간은 끔찍하겠지만, 장기적으로는 탄소 배출을 하지 않으면 괜찮을 것입니다. AI가 장악하는 것에 대해서는 우리가 무엇을 해야 할지 모릅니다. 예를 들어 연구자들은 그것을 막을 방법이 있는지조차 모릅니다. 하지만 우리는 분명히 매우 열심히 노력해야 하며, 대기업들은 그렇게 하지 않을 것입니다. 지금 대기업들이 무엇을 하고 있는지 보면, 그들은 AI 규제를 완화하기 위해 로비를 하고 있습니다. 현재도 규제가 거의 없지만, 그들은 더 적은 규제를 원합니다. 왜냐하면 그들은 단기적인 이익을 원하기 때문입니다. 우리는 사람들이 정부에 압력을 가하여 대기업들이 진지한 안전 연구를 하도록 요구해야 합니다. 그래서 캘리포니아에는 매우 합리적인 법안인 법안 1047이 있었는데, 거기서는 적어도 대기업들이 해야 할 일은 신중하게 테스트하고 테스트 결과를 보고하는 것이라고 명시했습니다. 그리고 그들은 그것조차 싫어했습니다. 그렇다면 그것 때문에 규제가 이루어지지 않을 것이라고 생각하십니까, 아니면 어떻게 이루어질 것이라고 생각하십니까? 그것은 우리가 어떤 정부를 갖느냐에 따라 크게 달라집니다. 현재 미국 정부 하에서는 규제가 이루어지지 않을 것이라고 생각합니다. 모든 대형 AI 기업들이 트럼프와 손을 잡았고, 네, 그냥 나쁜 상황입니다. 트럼프 행정부에 깊이 관여했던 일론 머스크는 오랫동안 AI 안전에 대해 우려해 왔습니다. 네, 그는 재미있는 혼합체입니다. 그는 화성에 가는 것과 같은 터무니없는 견해를 가지고 있는데, 저는 그것이 완전히 미친 짓이라고 생각합니다. 왜냐하면 그것은 일어나지 않을 것이거나 우선순위가 되어서는 안 되기 때문입니다. 지구를 아무리 끔찍하게 만들어도 화성보다 훨씬 더 살기 좋은 곳이 될 것입니다. 전 세계적인 핵전쟁이 일어나더라도 지구는 화성보다 훨씬 더 살기 좋을 것입니다. 화성은 그냥 살기 좋은 곳이 아닙니다. 분명히 그는 전기 자동차와 스타링크를 통한 우크라이나 통신 지원과 같은 훌륭한 일들을 해냈습니다.