"코드는 더 이상 내가 치는 것이 아니다"…안드레이 카파시가 선언한 AI 에이전트 혁명
전 OpenAI 공동창업자·전 테슬라 AI 총괄, No Priors 팟캐스트서 1시간 심층 대담… "2025년 12월부터 코드 한 줄 안 썼다"
[테크수다 기자 도안구 eyeball@techsuda.com] 2025년 12월, 세계 최고의 AI 연구자 중 한 명이 키보드에서 손을 뗐다. 전 OpenAI 공동창업자이자 테슬라 AI 총괄을 지낸 안드레이 카파시(Andrej Karpathy)는 2026년 3월 21일, 벤처투자자 사라 구오(Sarah Guo)가 진행하는 팟캐스트 'No Priors'에 출연해 코딩 에이전트의 부상, 자율 AI 연구 루프인 자동연구(AutoResearch), AI 시대의 직업 시장, 오픈소스 대 클로즈드 모델의 역학관계에 대해 66분간 심층 대담을 나눴다. 그의 발언은 단순한 기술적 낙관론을 넘어, 인간이 소프트웨어를 만드는 방식 자체가 되돌릴 수 없는 '상전이(phase shift)'를 맞았다는 선언이었다.
에이전트에게 코드를 위임한 날
카파시는 2025년 12월을 기점으로 자신의 작업 방식이 근본적으로 바뀌었다고 밝혔다. 이전까지 코드의 80%를 직접 작성하고 20%를 에이전트에 위임하던 비율이 완전히 역전됐고, 지금은 사실상 코드를 직접 입력하지 않는 단계에 이르렀다. 그는 "평범한 소프트웨어 엔지니어가 책상에 앉아 하는 기본 작업 방식이 2025년 12월을 기점으로 완전히 달라졌다"며, 대부분의 사람들이 이 변화가 얼마나 극적인지 아직 실감하지 못하고 있다고 지적했다.
그가 지향하는 작업 방식은 복수의 코딩 에이전트를 동시에 운영하며 각각에게 독립적인 기능을 맡기는 것이다. 에이전트 A에게는 새로운 기능 구현을, 에이전트 B에게는 리서치를, 에이전트 C에게는 구현 계획 수립을 맡기고, 인간은 이 '매크로 액션'들의 결과를 리뷰하는 역할로 물러난다. 작업 단위가 '코드 한 줄'에서 '하나의 기능 전체'로 올라간 것이다.
피터 스타인버그(Peter Steinberg)는 이 방식을 이미 실천하고 있는 대표 사례로 거론됐다. 그는 모니터 앞에서 10개의 코덱스(Codex) 에이전트를 동시에 가동하며, 각 에이전트가 20분씩 작업을 수행하는 사이사이 새 임무를 지속적으로 할당하는 방식으로 일한다. 카파시는 이 방식을 레포지토리를 매크로 단위로 조작하는 새로운 근육기억이라고 표현했다.
이 심리 상태에 카파시는 스스로 'AI 사이코시스'라는 이름을 붙였다. 무엇이 가능한지 끊임없이 탐색하고 한계를 밀어붙이려는 강박적 충동이다. 박사과정 시절 GPU가 유휴 상태일 때 느꼈던 불안감이, 이제는 소비되지 않은 토큰에 대한 불안감으로 형태만 바뀌었다고 그는 비유했다.
'클로(Claw)'와 도비: 스마트홈을 접수한 AI 집사
카파시는 코딩 에이전트의 진화 방향으로 '클로(Claw)' 개념을 주목했다. 클로는 단순히 사용자의 명령에 반응하는 에이전트를 넘어, 지속성(persistence)을 갖추고 사용자가 직접 개입하지 않아도 독립적으로 루프를 돌며 작업을 수행하는 개체다. 여기에 정교한 메모리 시스템이 결합되면, AI는 사용자의 디지털 삶을 상시 관리하는 진정한 자율 에이전트로 기능할 수 있다.
2026년 1월, 카파시는 'Dobby(도비)'라는 이름의 클로 에이전트를 자택 스마트홈에 직접 연결했다. 에이전트는 로컬 네트워크를 자율 스캔해 소노스(Sonos) 오디오 시스템을 찾아내고, 웹 검색으로 API 엔드포인트를 역공학 방식으로 파악한 뒤 음악을 재생하는 것까지 스스로 처리했다. 이후 도비는 조명, 냉난방, 블라인드, 수영장, 스파, 보안 카메라를 통합 관리하게 됐다. 카메라가 변화를 감지하면 소형 비전 모델이 영상을 분석하고, WhatsApp으로 사진과 함께 상황을 알려주는 방식이다.
카파시가 이 경험에서 주목한 것은 기술적 성취만이 아니었다. 사람들이 AI에 기대하는 것은 원시적 토큰 생성기가 아니라, 기억하고 소통하는 하나의 페르소나라는 것이다. WhatsApp 뒤편에 존재하는 존재처럼, AI의 이상적인 모습은 LLM의 기술적 정의보다 훨씬 인간적인 무언가에 가깝다고 그는 강조했다.
이 관점은 기존 스마트홈 앱 생태계에 대한 도전적인 전망으로 이어졌다. API가 공개되고 에이전트가 직접 이를 호출할 수 있다면, 각각의 개별 앱은 사실상 불필요해진다. 카파시는 소프트웨어 산업 전체가 재구성돼야 하며, 그 중심에는 "고객은 더 이상 인간이 아니라 인간을 대신해 행동하는 에이전트"라는 인식의 전환이 있다고 밝혔다.
자동연구(AutoResearch): AI가 스스로 AI를 연구하다
이번 대담에서 가장 주목받은 개념은 자동연구(AutoResearch)다. 카파시가 직접 공개한 이 프로젝트는 AI 에이전트가 인간의 개입 없이 머신러닝 실험을 자율적으로 설계·실행·분석하는 시스템이다. 단 하나의 마크다운 프롬프트와 630줄의 학습 코드로 구성되며, 단일 GPU 환경에서 이틀 만에 700건의 실험을 수행해 20개의 최적화 방안을 스스로 발견했다. 에이전트는 학습 코드를 직접 수정하고, QK 정규화(QK Norm)와 위치 인코딩(RoPE)의 순서 재배치 같은 새로운 아키텍처 조정까지 실험하며, 실패로부터 학습하고 반복한다.
카파시는 이 결과를 스스로도 예상치 못했다고 고백했다. 20년 경력의 연구자로서 수천 번의 학습 실험을 직접 수행하며 상당히 최적화됐다고 생각했던 리포지토리에서, 자동연구(AutoResearch)는 그가 놓쳤던 최적화 조합을 하룻밤 사이에 찾아냈다. 가중치 감쇠(weight decay) 설정, 밸류 임베딩 처리, Adam 베타값 조정이 서로 맞물리는 방식이 예상과 달랐던 것이다.
그의 핵심 결론은 "연구자 스스로가 루프 안에 있는 것이 오히려 시스템의 병목"이라는 것이다. 자동연구(AutoResearch)의 목표는 단 한 번의 설정 이후 인간의 개입 없이 무한정 최적화를 이어가는 완전 자율 연구 루프다. 다만 이 방식이 효과적으로 작동하는 데는 조건이 있다. 객관적 지표가 명확하고 평가가 용이한 작업, 가령 CUDA 커널 최적화처럼 성능을 수치로 측정할 수 있는 영역이 적합하다. 검증이 어려운 소프트한 영역에는 적용이 어렵다는 한계를 카파시 본인도 인정했다.
프론티어 랩보다 강한 분산 AI 군집의 가능성: SETI@Home 모델
카파시는 자동연구(AutoResearch)를 단일 루프 개념을 넘어 대규모 분산 협업 시스템으로 확장하는 구상을 제시했다. 그가 참조점으로 든 것은 1999년 시작된 SETI@Home 프로젝트다. 외계 지적 생명체 탐색을 위해 개인 컴퓨터의 유휴 연산 자원을 분산 활용했던 이 프로젝트처럼, 단백질 접힘 구조를 탐색한 Folding@Home도 같은 원리로 운영됐다.
카파시는 AI 연구에도 이 모델을 적용할 수 있다고 주장했다. 핵심 논리는 비대칭성에 있다. 좋은 커밋(코드 개선)을 찾아내기는 극도로 어려워 수천 번의 시도가 필요하지만, 누군가가 제출한 커밋이 실제로 효과적인지 검증하는 것은 단 한 번의 재학습으로 충분하다. 이 비대칭성이 신뢰할 수 없는 인터넷 기여자 풀과 신뢰할 수 있는 검증 풀의 협업을 가능하게 한다는 설명이다.
그는 이 구조를 블록체인에 비유했다. 블록 대신 커밋이 있고, 작업증명(proof of work)은 수많은 실험을 거쳐 효과적인 커밋을 발굴하는 과정이다. 보상은 현재로선 리더보드 순위에 불과하지만, 화폐적 인센티브를 연결하는 것도 구조적으로 가능하다. 카파시는 "프론티어 랩은 막대한 신뢰 연산 자원을 보유하고 있지만, 지구 전체의 비신뢰 연산 자원이 훨씬 더 크다"며, 검증 시스템이 갖춰진다면 분산 군집이 프론티어 랩을 능가하는 것도 이론상 가능하다고 밝혔다.
AI 시대의 일자리: 제번스 역설이 다시 온다
카파시는 미국 노동통계국(BLS)의 직업별 고용 전망 데이터를 직접 분석해 AI가 일자리에 미치는 영향을 짚었다. 그의 핵심 관심사는 디지털 정보를 주로 다루는 직종과 물리적 실체를 다루는 직종 간의 AI 영향 속도 차이였다.
디지털 영역에서는 먼저 대규모 '언호블링(unhobbling)'이 일어날 것이라는 것이 그의 전망이다. 비트를 다루는 것이 물질을 다루는 것보다 훨씬 쉽고 빠르기 때문에, 재택근무가 가능한 디지털 정보 처리 직종부터 먼저 변화의 파고를 맞는다는 논리다. 다만 이것이 해당 직종의 일자리 감소를 의미하지는 않을 수 있다고 카파시는 강조했다.
소프트웨어 엔지니어링 분야에서 그는 '제번스 역설(Jevons Paradox)'을 적용했다. 어떤 자원의 효율이 높아지면 오히려 그 수요가 증가하는 이 역설의 대표 사례로, ATM 도입 후 은행 창구 직원 수가 오히려 늘어난 사례를 들었다. ATM이 지점 운영 비용을 낮추면서 지점 수 자체가 확대됐고, 그 결과 직원 수도 증가했다. 소프트웨어 생산 비용이 급감하면 오히려 소프트웨어 수요가 폭발할 수 있다는 논리다. 장기 전망에 대해서는 불확실성을 솔직히 인정하면서도, 단기적으로는 신중한 낙관론을 유지했다.
물리적 세계의 로보틱스에 대해서는 디지털 영역보다 훨씬 느린 속도를 예상했다. 자율주행을 통해 로보틱스를 처음 경험한 연구자로서, 그는 물리적 하드웨어가 결합될 때의 자본 투자와 소요 시간이 디지털 영역과는 차원이 다르다고 봤다. 다만 디지털과 물리의 경계면, 즉 센서와 액추에이터 영역에서는 새로운 기회가 열릴 것이라고 전망했다.
AI의 들쑥날쑥함: "천재적 박사이자 10살 어린이"
에이전트의 한계에 대해 카파시는 '들쑥날쑥함(jaggedness)'이라는 개념으로 설명했다. 현재 AI 에이전트는 검증 가능한 영역에서는 놀라운 능력을 발휘하지만, 그 영역을 벗어나면 급격히 무너진다. 강화학습(RL)은 보상 함수가 명확한 영역만을 최적화하고, 나머지는 개선되지 않은 채로 남기 때문이다.
그는 ChatGPT의 농담을 예시로 들었다. 오늘날의 최첨단 모델에게 농담을 요청하면 4~5년 전과 동일하게 "왜 과학자들은 원자를 못 믿을까요? 원자는 모든 것을 지어내거든요"라는 답이 나온다. 수천 시간짜리 코드베이스를 재구성하는 능력을 갖춘 모델이, 새로운 농담 하나는 여전히 만들지 못하는 것이다. 강화학습의 보상 함수 밖에 있는 것은 개선이 이루어지지 않기 때문이다. 카파시는 이 모순을 두고 "천재적인 시스템 프로그래머 박사와 10살 어린이가 동시에 말을 걸어오는 것 같다"고 표현했다.
이 들쑥날쑥함은 AI 에이전트의 캐릭터(personality) 설계의 중요성으로도 이어졌다. 카파시는 클로드(Claude)가 칭찬의 타이밍을 적절히 조율한다는 점을 긍정적으로 평가했다. 대충 짠 아이디어에는 반응이 덜하고, 실제로 좋은 아이디어에 더 강하게 호응하는 방식이 "진짜로 인정받는 느낌"을 준다는 것이다. 반면 코덱스(Codex) 코딩 에이전트는 구현 능력은 뛰어나지만 무엇을 만들고 있는지 공감하지 못하는 인상을 준다고 지적했다.
오픈소스 vs 클로즈드: "우리는 우연히 좋은 균형점에 있다"
오픈소스와 클로즈드 모델의 역학에 대해 카파시는 리눅스(Linux) 생태계를 준거점으로 제시했다. 오픈소스 AI가 현재 클로즈드 프론티어 모델보다 약 6~8개월 뒤처져 있지만, 격차가 꾸준히 줄어드는 추세다. 운영체제 세계에서 윈도우·macOS와 리눅스가 공존하듯, AI에서도 프론티어 클로즈드 모델과 공개 오픈소스 모델의 공존 구조가 지속될 것으로 내다봤다.
카파시가 특히 강조한 것은 중앙화에 대한 경계심이다. 동유럽 출신으로서 역사적으로 중앙화된 권력이 좋은 결과를 낳지 못했다는 경험을 언급하며, AI 개발의 집중화에 강한 우려를 표명했다. 머신러닝에서 앙상블이 단일 모델을 능가하듯, AI의 미래를 논의하는 자리에 더 많은 주체가 필요하다는 논리다. 현재 오픈소스가 프론티어보다 뒤처져 있다는 사실 자체는 오히려 건강한 균형의 증거라고 해석했다. 프론티어 최첨단이 오픈소스로 민주화되면서도, 폐쇄된 프론티어 개발이 계속 이루어지는 구조가 지금으로서는 꽤 안정적인 권력 균형을 이루고 있다는 평가다.
마이크로GPT(MicroGPT)와 교육의 재정의: "이제는 에이전트에게 설명한다"
카파시의 최근 프로젝트 중 하나인 마이크로GPT(MicroGPT)는 LLM 학습 알고리즘을 외부 의존성 없는 순수 파이썬(pure Python) 약 200줄로 구현한 것이다. 2026년 2월 공개된 이 프로젝트는 파이토치(PyTorch) 없이 기본 수학 연산만으로 GPT를 처음부터 학습시키는 구조로, 인간과 에이전트 모두가 알고리즘을 이해하고 확장할 수 있도록 설계됐다.
흥미로운 것은 카파시가 이 프로젝트의 설명 동영상 제작을 시작했다가 멈췄다는 점이다. 코드가 이미 충분히 단순해 에이전트가 각 사람에게 맞는 방식으로 설명할 수 있다고 판단했기 때문이다. 그는 같은 개념을 세 가지 다른 방식으로 설명해달라고 에이전트에게 요청하는 것이 동영상보다 훨씬 개인화된 학습 경험을 제공한다고 봤다.
이는 교육 패러다임 전환의 신호탄이다. 카파시는 교사의 역할이 학생에게 직접 가르치는 것에서, 에이전트가 가르치는 방법을 설계하는 것으로 이동하고 있다고 설명했다. 코드 라이브러리의 문서도 마찬가지다. 인간을 위한 HTML 문서 대신, 에이전트를 위한 마크다운 문서가 새로운 표준이 될 것이라는 전망이다.
독립 연구자의 길: "프론티어 랩 밖에서도 큰 영향력을 낼 수 있다"
사라 구오가 "왜 프론티어 랩에서 일하지 않느냐"는 질문을 던지자, 카파시는 다층적 답변을 내놓았다. 랩 밖에서의 핵심 장점은 독립성이다. 조직 내부에 있으면 말할 수 없는 것들이 생기고, 조직이 원하는 방향으로 발언해야 한다는 무언의 압력이 작용한다. 완전히 자유로운 독립적 주체로서 인류 전체의 이익을 대변하기 어렵다는 것이다.
반면 랩 안에 있으면 실제로 무엇이 개발되고 있는지 직접 볼 수 있다는 것이 결정적 장점이다. 밖에서는 시간이 지날수록 판단력이 흐려지고, 시스템이 실제로 어떻게 작동하는지에 대한 감각을 잃게 된다고 솔직히 인정했다. 그는 향후 일부 프론티어 랩과 일정 기간 협력한 후 다시 독립 연구로 돌아오는 방식이 이상적일 수 있다고 시사했다. 에코시스템 수준의 역할과 프론티어 접근성을 오가는 절충안이다.
전망: 디지털에서 물리로, 루프는 계속된다
카파시가 그리는 AI 발전의 궤적은 세 단계로 요약된다. 먼저 디지털 영역에서의 대규모 언호블링이 일어나고, 이어서 디지털과 물리의 경계면인 센서와 액추에이터 영역에서 기회가 열리며, 마지막으로 로보틱스를 포함한 완전한 물리 세계로 확장된다. 비트 조작이 원자 조작보다 훨씬 쉽다는 근본적 비대칭이 이 순서를 결정한다.
그가 거듭 강조한 것은 현재 AI의 진정한 한계가 능력 자체가 아니라 활용 방법에 있다는 점이다. 무언가가 작동하지 않을 때 능력의 부재가 아니라 기술의 미숙함, 즉 '스킬 이슈'로 봐야 한다는 것이다. 자동연구(AutoResearch)의 루프가 돌아가고 분산 군집 연구가 현실화된다면, 프론티어의 경계는 인간이 생각하는 것보다 훨씬 빠르게 밀려날 수 있다.
No Priors 팟캐스트의 이 66분은, AI 연구자들이 미래를 어떻게 상상하는지가 아니라 지금 이 순간 무엇이 실제로 작동하고 있는지를 보여주는 기록이다. 카파시가 'AI 사이코시스'라 부르는 이 상태는 그만의 것이 아닐 것이다. 소프트웨어 엔지니어링, AI 연구, 그리고 교육의 룰북이 동시에 다시 쓰이는 지금, 그 흐름을 파악하는 것이 곧 다음 10년의 생존 전략이 될 수 있다.
🙋 자주 묻는 질문(FAQ)
Q1. AutoResearch는 무엇이고, 누구나 사용할 수 있나요?AutoResearch는 카파시가 공개한 오픈소스 프로젝트로, AI 에이전트가 머신러닝 실험을 인간 개입 없이 자율적으로 설계·실행하는 시스템입니다. GitHub(github.com/karpathy/autoresearch)에 공개돼 있으며, 단일 NVIDIA GPU만 있으면 누구나 실행할 수 있습니다. 다만 실험 품질은 사용하는 LLM의 성능에 따라 달라집니다.
Q2. 카파시가 말하는 '들쑥날쑥함(jaggedness)'이란 무엇인가요?현재 AI 모델이 코드 작성이나 수학처럼 보상 함수를 명확히 정의할 수 있는 영역에서는 극도로 뛰어난 반면, 유머 감각이나 맥락 파악처럼 검증이 어려운 영역에서는 몇 년 전 수준에서 거의 발전하지 않은 현상을 말합니다. 강화학습이 측정 가능한 영역만을 최적화하기 때문에 발생합니다.
Q3. 오픈소스 AI 모델은 클로즈드 모델을 따라잡을 수 있을까요?카파시는 현재 오픈소스 모델이 프론티어 클로즈드 모델보다 약 6~8개월 뒤처져 있으며, 그 격차가 꾸준히 줄어들고 있다고 평가합니다. 리눅스가 운영체제 생태계에서 차지하는 역할처럼, 오픈소스 AI도 업계 공통 플랫폼으로 자리잡을 것으로 전망했습니다.
Q4. 'AI 사이코시스'는 실제로 해로운 현상인가요?카파시가 사용한 'AI 사이코시스'는 임상적 의미가 아니라, 무엇이 가능한지 끊임없이 탐색하고 한계를 밀어붙이는 강박적 집중 상태를 비유적으로 표현한 말입니다. 그는 이 상태를 AI 시대의 정상적이고 오히려 필요한 적응 과정으로 묘사했습니다.
Q5. 소프트웨어 엔지니어는 AI 에이전트로 대체될까요?카파시는 단기적으로는 제번스 역설이 작용해 소프트웨어 수요가 오히려 증가할 것으로 봤습니다. 다만 장기적으로는 예측이 매우 어렵다고 솔직히 인정했습니다. 핵심은 작업 단위가 '코드 한 줄'에서 '기능 전체'로, 역할이 '구현자'에서 '에이전트 관리자'로 이동한다는 점입니다.
#AI에이전트 #AutoResearch #카파시
이 기사는 네이버 클로바노트, 구글 제미나이, 앤쓰로픽 클로드를 활용했다.