← 프리뷰 목록으로

AI 진보에 대한 생각 (2025년 12월)

게시일: 2025년 12월 4일 | 원문 작성일: 2025년 12월 2일 | 저자: Dwarkesh Patel | 원문 보기

핵심 요약

드워케시 파텔이 현재 AI 발전에 대해 제기하는 회의적 시각이에요. 짧은 AI 타임라인을 주장하면서 RL 스케일링에 낙관적인 사람들에게 모순을 지적하고, AGI가 왜 아직 안 왔는지에 대해 솔직하게 이야기해요.

  • 현재 접근법의 한계 — 모델들은 ‘범용 학습’이 아니라 ‘미리 주입된 스킬’을 배우고 있어요. 인간처럼 새 도구를 바로 익히지 못하죠.
  • 느린 도입은 핑계가 아니에요 — AI가 정말 인간 수준이면 빠르게 확산될 거예요. 느린 채택은 역량 부족의 증거예요.
  • RL 스케일링의 불확실성 — 프리트레이닝은 예측 가능하게 스케일됐지만, RL은 그런 증거가 없어요.
  • AGI 정의가 달라지는 건 합리적 — 기존 문제를 풀었는데도 지식 노동의 95%가 자동화 안 됐으면, 정의가 좁았던 거예요.

• • •

1. 우리가 스케일하는 게 뭔가요?

파텔은 재미있는 모순을 지적해요. 짧은 AI 타임라인을 믿으면서 동시에 RLHF(강화학습)에 낙관적인 사람들이 있는데, 이 두 입장이 정말 일관성 있냐는 거예요.

현재 AI 연구소들은 ‘미드-트레이닝’ 접근법으로 여러 스킬을 모델에 주입하고 있어요. 그런데 인간은 그렇게 안 하잖아요. 새 소프트웨어를 쓸 때마다 특별한 훈련 단계를 거치지 않죠.

핵심 질문

만약 모델이 곧 독자적으로 학습할 수 있게 된다면, 프리트레이닝은 불필요해질 거예요. 하지만 그렇게 안 된다면? AGI가 임박했다는 주장도 의심스러워지죠.

• • •

2. 인간 노동이 가치있는 이유

파텔은 저녁 식사 자리에서 있었던 대화를 소개해요. 한 AI 연구자가 현미경 이미지 분류 같은 작업에 대한 우려를 무시했대요. 그의 반박은 이랬어요:

“인간 노동자가 가치있는 이유는 바로 작은 업무 하나하나마다 귀찮은 훈련 루프를 만들 필요가 없기 때문이에요.”

현실의 직업들은 끊임없이 변하는 맥락에서 판단력을 요구해요. 사전 정의된 기술로 다 처리할 수 없죠. 이게 인간이 여전히 필요한 이유예요.

• • •

3. 느린 확산은 핑계가 아니에요

어떤 사람들은 “AI가 천천히 도입되는 건 기술 확산이 원래 느리기 때문”이라고 해요. 파텔은 이게 역량 부족에 대한 변명이라고 봐요.

파텔의 반박

모델이 정말 인간 수준이라면, 엄청나게 빠르게 확산될 거예요. 기업들은 늘 채용하고 있거든요. 대규모 AI 채택이 없다는 건 진짜 역량 격차가 있다는 증거지, 도입 지연 때문이 아니에요.

• • •

4. 골대 옮기기는 정당해요

AGI 정의가 계속 바뀐다고 비판하는 사람들이 있죠. 하지만 파텔은 오히려 이게 합리적이라고 봐요.

”범용적 이해, 퓨샷 학습(few-shot learning), 추론”을 해결했는데도 지식 노동의 95%가 자동화되지 않았다면? 그건 이전 AGI 정의가 너무 좁았다는 뜻이에요. 정의를 수정하는 게 당연하죠.

• • •

5. RL 스케일링은 프리트레이닝 후광 효과

프리트레이닝은 수십억 배 규모에서도 예측 가능하고 지수적인 개선을 보여줬어요. 하지만 RL은 그런 스케일링 증거가 없어요.

스케일링 현실

일부 분석에 따르면 프리트레이닝과 비슷한 개선을 얻으려면 RL 연산량을 100만 배 확장해야 할 수도 있어요. 이건 프리트레이닝의 성공을 RL에 그대로 적용할 수 없다는 뜻이죠.

• • •

6. 인간 분포와의 비교

AI 모델들은 대략 비슷한 역량 수준에 고정되어 있어요. 하지만 인간은 엄청난 편차를 보이죠.

이게 의미하는 바는:

  • 현재 모델은 평범한 사람과 비교하면 과대평가됐을 수 있어요
  • 하지만 최고 전문가와 비교하면 과소평가됐을 수도 있죠
  • 특정 역량 임계값을 넘으면 폭발적인 임팩트가 올 수 있어요

• • •

7. 널리 배포된 지능 폭발

파텔은 AGI 이후 개선의 주요 동력이 지속적 학습(continual learning)이 될 거라고 봐요. 갑작스러운 돌파보다는 점진적 개선이죠.

결과적으로:

  • 진보는 “인컨텍스트 학습(in-context learning) 해결” 같은 점진적 개선과 비슷할 거예요
  • 갑자기 나타나는 게 아니라 서서히 발전하는 형태
  • 경쟁은 치열하게 유지될 거예요 — 개별 연구소의 일시적 우위가 상쇄될 테니까요

• • •

시사점

파텔의 글은 AI 낙관론에 찬물을 끼얹는 게 아니에요. 현재 접근법의 한계를 솔직하게 인정하자는 거예요.

핵심 메시지는 명확해요:

“미리 정의된 스킬을 주입하는” 현재 접근법이 AGI로 가는 길인지, 아니면 근본적으로 다른 무언가가 필요한지 — 이 질문에 솔직해져야 해요.

RL 스케일링에 대한 과도한 낙관, 느린 채택을 핑계로 쓰는 것, AGI 정의 변화를 비판하는 것 — 파텔은 이 모든 것에 의문을 제기해요. 건강한 회의주의죠.

저자 소개: Dwarkesh Patel은 Dwarkesh Podcast를 운영하며, AI 연구자, 기업가, 역사가들과의 심층 인터뷰로 유명합니다.

참고: 이 글은 Dwarkesh Patel의 Substack에 게시된 에세이를 번역 및 요약한 것입니다.

원문: Thoughts on AI progress (Dec 2025) - Dwarkesh Patel (2025년 12월 2일)

생성: Claude (Anthropic)

총괄: (디노이저denoiser)