[GTC 2026] 젠슨 황 엔비디아 CEO, "2027년까지 AI 인프라 수요 최소 1조 달러" ···추론 인플렉션 시대 공식 선언

[테크수다 기자 도안구 eyeball@techsuda.com] 젠슨 황(Jensen Huang) 엔비디아(NVIDIA) 설립자 겸 최고경영자가 2027년까지 AI 인프라 수요가 최소 1조 달러에 달할 것이라고 공개 전망했다. 그는 17일(현지시간) 미국 새너제이 SAP센터에서 열린 NVIDIA GTC 2026 키노트에서 "2025년 이 자리에서 5,000억 달러를 예측했는데, 1년 만에 그 수치가 두 배로 뛰었다"며 "컴퓨팅 수요가 아직 훨씬 더 높아질 것이라 확신한다"고 말했다. 그는 또 또한 앤쓰로픽(Anthropic)의 클로드 코드(Claude Code)를 "최초의 에이전틱 AI 모델"로 공식 지목하고, NVIDIA 전체 엔지니어가 100% 사용하고 있다고 밝혔다.

핵심 요약 3줄

  • 젠슨 황, 2027년까지 AI 인프라 수요 최소 1조 달러 전망 — 지난해 예측 5,000억 달러의 2배
  • 앤쓰로픽 클로드 코드를 "최초의 에이전틱 AI 모델"로 규정, NVIDIA 전 소프트웨어 엔지니어 100% 도입 확인
  • 지난 2년간 AI 컴퓨팅 수요 100만 배 증가 — 추론(inference) 인플렉션 시대 공식 선언

AI 3단계 진화 — 생성에서 추론, 에이전트로

젠슨 황 CEO는 최근 2년간 AI 산업을 이끈 세 가지 변곡점을 제시했다. 첫째는 챗GPT(ChatGPT)로 촉발된 생성형 AI 시대다. 둘째는 오픈AI(OpenAI) o1 모델의 등장으로 시작된 추론 AI 시대다. 그는 "o1은 AI가 스스로 반성하고, 계획하고, 문제를 분해할 수 있게 만들었다"며 "이로써 생성형 AI가 처음으로 신뢰할 수 있게 됐다"고 말했다.

셋째가 바로 에이전틱 AI다. 황 CEO는 앤트로픽의 클로드 코드를 "최초의 에이전틱 모델"로 명명했다. 그는 "클로드 코드는 파일을 읽고, 코딩하고, 컴파일하고, 테스트하고, 반복 개선한다"며 "소프트웨어 엔지니어링을 완전히 혁명적으로 바꿨다"고 말했다. 현재 NVIDIA는 클로드 코드, 오픈AI 코덱스(Codex), 커서(Cursor) 중 하나 이상을 전체 소프트웨어 엔지니어가 100% 활용 중이다.

이 3단계 진화는 AI 컴퓨팅 수요 폭발의 직접적인 원인이 됐다. 황 CEO는 "지난 2년간 AI 작업당 컴퓨팅 수요는 약 1만 배, 실제 사용량은 약 100배 증가했다"며 "결합하면 컴퓨팅 수요가 100만 배 증가한 것"이라고 설명했다. 그는 "오픈AI도, 앤쓰로픽도 똑같이 느끼고 있다"며 "더 많은 컴퓨팅을 확보하면 매출이 오르고, AI는 더 스마트해지는 긍정적 플라이휠이 이미 작동 중"이라고 강조했다.

CUDA X·클라우드 동맹·1조 달러 인프라 투자 경쟁

황 CEO는 엔비디아의 핵심 경쟁력이 칩이 아닌 '알고리즘'에 있다고 강조했다. 그는 "엔비디아는 알고리즘 회사"라며 "20년간 구축한 1,000개의 CUDA X 라이브러리가 왕관 보석"이라고 말했다. 이번 GTC에서만 100여 개 이상의 라이브러리와 모델을 발표했다.

클라우드 파트너십도 확대됐다. 현재 NVIDIA 매출의 60%는 상위 5개 하이퍼스케일러에서 나오며, 나머지 40%는 리전 클라우드·소버린 클라우드·엔터프라이즈·산업 로봇 등으로 구성된다. 황 CEO는 "오픈AI를 AWS(아마존 웹 서비스)에 도입할 예정"이라고 밝히며 AWS와의 협력 심화를 공식화했다. 앤쓰로픽과 메타(Meta)도 NVIDIA 플랫폼을 선택했다고 직접 언급했다. 또한 마이크로소프트 애저(Azure) 전반에 걸친 컨피덴셜 컴퓨팅(Confidential Computing) 기능을 통해 오픈AI·앤트로픽 모델의 안전한 배포를 지원하고 있다고 설명했다.

AI 네이티브 스타트업 생태계도 주목했다. 그는 "AI 스타트업에 대한 벤처 투자가 인류 역사상 최대 규모인 1,500억 달러에 달했다"며 "이번이 처음으로 투자 단위가 수억~수십억 달러로 커진 사례"라고 말했다. 투자 규모가 커진 이유로 "모든 AI 기업이 대규모 컴퓨팅을 필수적으로 필요로 하기 때문"이라고 분석했다.

한편 황 CEO는 차세대 그래픽 기술 DLSS 5를 '신경 렌더링(Neural Rendering)'으로 명명하며 공개했다. 3D 그래픽의 구조적 데이터와 생성형 AI의 확률적 컴퓨팅을 결합한 기술로, 그는 "구조화된 정보와 생성형 AI의 융합이라는 개념은 이후 모든 산업에서 반복될 것"이라고 전망했다. 피지컬 AI(Physical AI) 부문에서는 50조 달러 규모의 제조업과 로봇공학을 겨냥해 현재 전 세계 로봇 기업과 협력 중이라고 밝혔으며, 이번 쇼에는 110대의 로봇이 전시됐다.

황 CEO는 키노트를 마치며 "NVIDIA는 수직 통합된 동시에 세계와 수평으로 열려 있는 회사"라며 "우리가 구축한 인프라는 세계 어디서나, 어떤 클라우드에서나, 어떤 국가에서든 완전한 신뢰로 구축할 수 있는 유일한 AI 플랫폼"이라고 말했다.

[테크수다 기자 도안구 eyeball@techsuda.com]

다음은 otter.ai 와 앤쓰로픽 anthropic 클로드 를 활용한 젠슨 황 엔비디아 CEO 기조연설 번역문. 오류가 있을 수 있으니 원문을 꼭 확인해주세요.

원문을 보면 앞부분 약 46분은 개막 공연 음악(가사)이고, 실제 젠슨 황의 키노트 발언은 46분 4초부터 시작됩니다. 전체 발언 부분을 빠짐없이 번역합니다.


NVIDIA GTC 2026 키노트 전문 번역

젠슨 황 (Jensen Huang, NVIDIA CEO)


[46:04] 지포스(GeForce)와 CUDA의 역사

지포스는 NVIDIA 최고의 마케팅 캠페인입니다. 우리는 고객들이 직접 구매할 수 있게 되기 훨씬 전부터 미래 고객을 확보해왔습니다. 여러분의 부모님이 비용을 댔습니다. 여러분의 부모님이, 또 그 부모님이 여러분을 NVIDIA 고객으로 만들기 위해 매년 꾸준히 비용을 지불했습니다. 그렇게 언젠가 여러분은 훌륭한 컴퓨터 과학자가 되어 제대로 된 고객이자 개발자가 됐습니다. 이것이 지포스가 만들어낸 토대입니다.

25년 전, 우리는 CUDA로 이어지는 여정을 시작했습니다. 25년 전 우리는 프로그래머블 셰이더(programmable shader)를 발명했습니다. 가속기를 프로그래밍 가능하게 만들기 위한, 당시로서는 전혀 당연하지 않았던 발명이었습니다. 세계 최초의 프로그래머블 가속기, 픽셀 셰이더(pixel shader)가 탄생한 것입니다. 그리고 5년 뒤, 우리는 CUDA를 발명했습니다.

CUDA는 우리가 감행한 가장 큰 투자 중 하나였습니다. 당시 우리는 그 비용을 감당하기 어려운 상황이었고, 회사 이익의 대부분을 쏟아부었습니다. 우리는 지포스의 힘을 빌려 CUDA를 모든 컴퓨터에 탑재하는 데 전력을 다했습니다. 그 잠재력을 깊이 믿었기 때문입니다. 13세대, 20년의 세월 동안 매일 그 믿음을 지켜온 결과, 지금 CUDA는 세상 모든 곳에 설치되어 있습니다.

픽셀 셰이더는 물론 지포스 혁명으로 이어졌습니다. 그리고 약 8년 전, 우리는 현대 컴퓨터 그래픽 시대에 맞춰 아키텍처를 완전히 재설계한 RTX를 선보였습니다. 지포스가 CUDA를 세상에 가져다줬고, CUDA가 있었기에 알렉스 크리제프스키(Alex Krizhevsky), 일리야 수츠케버(Ilya Sutskever), 제프 힌튼(Geoff Hinton), 앤드류 응(Andrew Ng) 등이 GPU가 딥러닝 가속에 탁월하다는 사실을 발견할 수 있었습니다. 10년 전 현대 AI의 빅뱅이 시작된 것입니다.

약 10년 전, 우리는 프로그래머블 셰이더에 두 가지 새로운 아이디어를 결합하기로 했습니다. 하나는 하드웨어 레이 트레이싱(Ray Tracing)입니다. 구현하기 극도로 어려운 기술이었습니다. 그리고 당시로서는 완전히 새로운 개념이었는데, AI가 컴퓨터 그래픽을 혁명적으로 바꿀 것이라는 생각이었습니다. 지포스가 AI를 세상에 가져다줬듯, 이번에는 AI가 다시 컴퓨터 그래픽을 혁명적으로 바꾸러 돌아온 것입니다.

오늘 저는 미래의 그래픽 기술을 보여드리겠습니다. 우리는 이것을 '신경 렌더링(Neural Rendering)'이라고 부릅니다. 3D 그래픽과 인공지능의 융합입니다. 이것이 DLSS 5입니다. 한번 보시죠.


[50:30] DLSS 5 — 신경 렌더링

놀랍지 않습니까? 컴퓨터 그래픽이 생명을 얻었습니다.

우리가 한 것은 무엇입니까? 제어 가능한 3D 그래픽, 즉 가상 세계의 진실인 구조적 데이터(structured data)와, 생성형 AI의 확률적 컴퓨팅을 결합한 것입니다. 하나는 완전히 예측 가능하고, 다른 하나는 확률적이지만 높은 현실감을 지닙니다. 이 두 아이디어를 결합했습니다. 구조적 데이터를 통해 완벽하게 제어하면서도, 동시에 생성해냅니다. 그 결과 콘텐츠는 아름답고 놀라울 뿐만 아니라, 제어도 가능합니다.

구조화된 정보와 생성형 AI의 융합이라는 이 개념은, 앞으로 한 산업에서 다른 산업으로, 계속해서 반복될 것입니다.

구조화된 데이터는 신뢰할 수 있는 AI의 토대입니다.


[51:42] 구조적 데이터와 AI의 결합 — CUDA X 라이브러리 전략

자, 이제 이 도식을 보여드리겠습니다. 조금 놀라실 수 있으니 마음의 준비를 하시고, 가볍게 숨을 고르세요.

이것이 제가 가장 좋아하는 슬라이드입니다. 팀에 "내 최고의 슬라이드가 뭐냐"고 물을 때마다 항상 이것을 꼽습니다. 팀원들은 말립니다. "젠슨, 하지 마세요." 하지만 저는 이 자리, 일부 분들에게는 무료로 드린 자리이니, 이 슬라이드가 그 입장권인 셈입니다.

여기 구조적 데이터(structured data)가 있습니다. 여러분도 익히 아시는 SQL, Spark, pandas, Velox와 같은 매우 중요하고 대형 플랫폼들, 그리고 스노우플레이크(Snowflake), 데이터브릭스(Databricks), 아마존 EMR, 애저 패브릭(Azure Fabric), 구글 클라우드 빅쿼리(Google Cloud BigQuery). 이 모든 플랫폼이 데이터 프레임을 처리합니다. 이 데이터 프레임은 거대한 스프레드시트이며, 세상의 모든 정보를 담고 있습니다. 이것이 구조적 데이터, 즉 비즈니스의 진실이자 엔터프라이즈 컴퓨팅의 토대입니다.

이제 AI가 구조적 데이터를 사용하게 될 것이고, 우리는 이것을 극한까지 가속해야 합니다. 예전에는 단순히 더 많이, 더 저렴하게, 더 자주 처리하기 위해 가속했습니다. 하지만 미래에는 이 데이터 구조를 AI가 사용할 것이고, AI는 우리보다 훨씬 빠릅니다. 미래의 에이전트들도 구조적 데이터베이스를 활용하게 될 것입니다.

그 다음으로 비구조적 데이터베이스, 즉 생성형 데이터베이스가 있습니다. 이 데이터베이스는 세상의 대부분을 차지합니다. 벡터 데이터베이스(vector database), 비구조적 데이터, PDF, 동영상, 음성 등 세상에서 매년 생성되는 정보의 약 90%가 비구조적 데이터입니다.

지금까지 이 데이터는 세상에서 완전히 무용지물이었습니다. 파일 시스템에 넣고 그뿐이었습니다. 검색하기도 어렵고, 쿼리하기도 어려웠습니다. 이유는 간단합니다. 비구조적 데이터는 인덱싱이 쉽지 않기 때문입니다. 그 의미와 목적을 이해해야 하기 때문입니다.

이제 AI가 그 일을 합니다. AI가 멀티모달 인식과 이해를 통해 PDF를 읽고, 그 의미를 파악하고, 더 큰 구조에 임베딩하여 검색과 쿼리가 가능하게 만들 수 있습니다.

NVIDIA는 두 가지 핵심 라이브러리를 만들었습니다. RTX가 3D 그래픽을 위해 만들어진 것처럼, cuDF는 데이터 프레임, 즉 구조적 데이터를 위한 것이고, cuVS는 벡터 스토어, 즉 시맨틱 데이터·비구조적 데이터·AI 데이터를 위한 것입니다. 이 두 플랫폼은 미래에 가장 중요한 플랫폼 중 둘이 될 것입니다.

오늘 IBM과의 협력을 발표합니다. SQL을 발명한 IBM은 현재 IBM Watson X 데이터를 NVIDIA GPU 컴퓨팅 라이브러리인 cuDF로 가속하고 있습니다.

(IBM 파트너십 영상 소개)

60년 전, IBM은 시스템 360(System 360)을 선보이며 현대 컴퓨팅 플랫폼의 첫 장을 열었습니다. 이후 SQL, 데이터 웨어하우스 등 현대 엔터프라이즈 컴퓨팅의 토대를 만들었습니다. 오늘날 IBM과 NVIDIA는 AI 시대를 위한 데이터 처리를 재정의하고 있습니다. AI는 방대한 데이터셋에 빠르게 접근해야 합니다. 오늘날 CPU 기반 데이터 처리 시스템은 그 속도를 따라갈 수 없습니다. 네슬레(Nestle)는 185개국 글로벌 운영에서 매일 수천 건의 공급망 결정을 내립니다. NVIDIA GPU로 가속된 Watson X 데이터로 동일한 작업을 5배 빠르게, 83% 낮은 비용으로 처리합니다.


[57:19] 클라우드 파트너십 — AWS, Azure, Google, Oracle

NVIDIA는 클라우드에서의 데이터 처리를 가속합니다. 온프레미스(on-prem)에서도 마찬가지입니다. 델(Dell)은 세계 최고의 컴퓨터 시스템 및 스토리지 제공업체입니다. 우리는 함께 cuDF와 cuVS를 통합한 '델 AI 데이터 플랫폼(Dell AI Data Platform)'을 구축했습니다. NTT 데이터와의 협력 사례에서 엄청난 성능 향상을 확인할 수 있습니다.

구글 클라우드와는 오랫동안 협력해왔습니다. 우리는 Google의 버텍스 AI(Vertex AI)를 가속하고, 이제 빅쿼리(BigQuery)도 가속합니다. 스냅챗(Snapchat)과의 협력에서는 컴퓨팅 비용을 약 80% 절감했습니다.

컴퓨팅을 가속하면 속도와 규모의 이점을 얻습니다. 그러나 가장 중요한 것은 비용입니다. 세 가지가 하나로 합쳐집니다. 이것이 원래 '무어의 법칙(Moore's Law)'이라 불렸습니다. 무어의 법칙은 몇 년마다 성능이 두 배가 된다는 것, 즉 컴퓨팅 비용이 매년 절반으로 줄어든다는 의미였습니다. 그러나 무어의 법칙은 이제 한계에 도달했습니다. 새로운 접근이 필요합니다. 가속 컴퓨팅이 그 대안입니다.

AWS와도 오래 협력해왔습니다. 올해 특히 흥분되는 점은 오픈AI(OpenAI)를 AWS에 도입할 예정이라는 것입니다. AWS의 클라우드 컴퓨팅 소비를 대폭 촉진하고, 오픈AI의 규모와 컴퓨팅을 확장할 것입니다. 잘 알려진 대로 오픈AI는 심각한 컴퓨팅 제약에 처해 있습니다. NVIDIA는 AWS의 EMR, 세이지메이커(SageMaker), 베드록(Bedrock)을 가속합니다. AWS는 우리의 첫 번째 클라우드 파트너였습니다.

마이크로소프트 애저(Microsoft Azure), NVIDIA A100 슈퍼컴퓨터의 첫 번째 설치가 바로 애저였습니다. 그리고 오픈AI와의 성공적인 파트너십으로 이어졌습니다. 우리는 애저 클라우드, AI 파운드리(AI Foundry), Bing 검색을 가속합니다. 애저 리전 확장에서도 깊이 협력합니다.

특히 컨피덴셜 컴퓨팅(Confidential Computing)은 매우 중요합니다. 운영자조차 데이터를 보거나 접근할 수 없도록 보호합니다. NVIDIA GPU는 세계 최초로 컨피덴셜 컴퓨팅을 지원했습니다. 이를 통해 오픈AI와 앤트로픽(Anthropic)의 모델을 다양한 클라우드와 리전에 안전하게 배포할 수 있습니다.

오라클(Oracle)과의 관계도 특별합니다. 우리는 오라클의 첫 번째 AI 공급업체이기도 하지만, 첫 번째 AI 고객이기도 합니다. 오라클에 AI 클라우드를 처음 설명한 것이 자랑스럽습니다. 코히어(Cohere), 파이어웍스(Fireworks), 그리고 오픈AI가 오라클에 입주해 있습니다.

코어위브(CoreWeave)는 세계 최초의 AI 네이티브 클라우드입니다. 가속 컴퓨팅 시대에 맞춰 GPU 호스팅만을 목적으로 설립된 회사입니다. 빠르게 성장하고 있습니다.

팔란티어(Palantir)·델(Dell)·NVIDIA 세 회사의 플랫폼을 통해, 어떤 국가에서도, 어떤 에어갭(air-gapped) 환경에서도, 완전히 온프레미스로 AI를 구축할 수 있습니다.

NVIDIA가 해온 것, 그리고 계속 반복될 주제는 이것입니다. NVIDIA는 수직 통합된 회사이지만, 동시에 수평으로 열려 있는 세계 최초의 회사입니다.


[1:05:44] 가속 컴퓨팅의 본질

가속 컴퓨팅은 칩 문제가 아닙니다. 시스템 문제도 아닙니다. 가속 컴퓨팅에는 항상 빠뜨린 단어가 있습니다. 우리가 더 이상 말하지 않게 된 그 단어, 바로 '애플리케이션 가속(application acceleration)'입니다.

모든 것을 더 빠르게 실행하는 컴퓨터를 만들 수 있다면, 그것은 CPU라고 부릅니다. 하지만 CPU는 이미 한계에 도달했습니다. 앞으로 애플리케이션을 가속하고, 놀라운 속도 향상과 비용 절감을 이어가려면 애플리케이션 특화 가속, 즉 도메인 특화 가속 외에 방법이 없습니다.

그래서 NVIDIA는 라이브러리 하나하나, 도메인 하나하나, 수직 산업 하나하나에 파고들어야만 합니다. NVIDIA는 수직 통합된 컴퓨팅 회사입니다. 달리 방법이 없습니다. 우리는 애플리케이션을 이해해야 하고, 도메인을 이해해야 하며, 알고리즘을 근본적으로 이해해야 합니다. 데이터센터, 클라우드, 온프레미스, 엣지, 로봇 시스템 등 어떤 환경에서든 배포할 수 있어야 합니다.

이번 GTC는 그 대표적인 사례입니다. 이번 GTC 참석자 중 가장 많은 비중을 차지하는 산업은 금융 서비스입니다. 개발자들이기를 바랍니다, 트레이더가 아니라.


[1:08:15] 생태계와 수직 산업

이 자리의 참석자들은 NVIDIA 생태계의 상류와 하류 공급망을 대표합니다. 50년, 70년, 심지어 150년이 된 기업들이 이제 NVIDIA 공급망의 일부로 참여하고 있습니다. 그리고 여러분 모두 작년에 역대 최고 실적을 기록하셨을 것입니다. 축하드립니다.

수직 산업별로 살펴보겠습니다.

자율주행차량(Autonomous Vehicles): 우리의 도달 범위, 깊이, 영향력이 놀랍습니다.

금융 서비스(Financial Services): 알고리즘 트레이딩이 인간이 피처를 설계하는 고전적 머신러닝, 즉 퀀트(quant)에서 슈퍼컴퓨터가 방대한 데이터를 스스로 학습하고 패턴을 발견하는 방식으로 이동하고 있습니다. 딥러닝과 트랜스포머(transformer)의 순간을 맞이하고 있습니다.

헬스케어(Healthcare): 자신만의 ChatGPT 순간을 맞이하고 있습니다. AI 물리학과 AI 생물학을 통한 신약 개발, 진단 지원을 위한 AI 에이전트 등 중요한 기조 트랙이 있습니다.

인더스트리얼(Industrial): 인류 역사상 가장 큰 규모의 구축 프로젝트가 진행 중입니다. AI 팩토리, 칩 공장, 컴퓨터 공장이 여기 모여 있습니다.

미디어 & 엔터테인먼트, 게이밍(Media & Entertainment, Gaming): 라이브 게임, 라이브 영상, 번역, 방송 지원 등 엄청난 양의 콘텐츠가 AI로 증강될 것입니다. 우리의 플랫폼은 홀로스캔 퀀텀(Holoscan Quantum)입니다.

양자 컴퓨팅(Quantum Computing): 35개 기업이 우리와 함께 차세대 양자-GPU 하이브리드 시스템을 구축하고 있습니다.

리테일 & CPG(Retail & CPG): 공급망에 NVIDIA를 활용하고, AI 에이전트 기반 쇼핑 시스템, 고객 지원 AI 에이전트가 만들어지고 있습니다. 35조 달러 규모의 산업입니다.

로봇공학(Robotics): 제조업 기준 50조 달러 규모입니다. NVIDIA는 10년째 이 분야에서 로봇 시스템 구축에 필수적인 세 가지 핵심 컴퓨터를 개발해왔습니다. 현재 로봇을 만드는 모든 기업과 협력하고 있습니다. 이번 쇼에는 110대의 로봇이 전시돼 있습니다.

통신(Telecommunications): 세계 IT 산업과 규모가 비슷한, 약 2조 달러 규모입니다. 기지국(base station)은 지난 세대 컴퓨팅의 인프라였습니다. 이 인프라가 완전히 재정의될 것입니다. 기지국은 앞으로 AI 인프라 플랫폼이 됩니다. AI가 엣지에서 실행될 것입니다. 우리의 플랫폼 이름은 애리얼(Ariel)이며, 노키아(Nokia), T-모바일(T-Mobile) 등과 대규모 파트너십을 맺고 있습니다.


[1:12:41] CUDA X — NVIDIA는 알고리즘 회사

우리 비즈니스의 핵심, 방금 언급한 모든 것의 근간은 컴퓨팅 플랫폼입니다. 그리고 매우 중요하게도, 우리의 CUDA X 라이브러리입니다.

CUDA X 라이브러리는 NVIDIA가 발명하는 알고리즘입니다. 우리는 알고리즘 회사입니다. 이것이 우리를 특별하게 만드는 것입니다. 모든 수직 산업에 들어가 미래를 상상하고, 세계 최고의 컴퓨터 과학자들이 문제를 정의하고 해결하도록 하고, 이를 라이브러리로 만들어낼 수 있는 이유가 바로 이것입니다.

이번 쇼에서만 100여 개의 라이브러리, 70여 개의 라이브러리·모델, 40여 개의 모델을 발표합니다. 우리는 이것을 끊임없이 업데이트하고 있습니다.

라이브러리는 우리 회사의 왕관 보석입니다. 컴퓨팅 플랫폼이 실제 문제를 해결하고 영향을 미칠 수 있도록 활성화해주는 것이 바로 라이브러리입니다.

우리가 만든 가장 중요한 라이브러리 중 하나는 cuDNN, 즉 CUDA 딥 뉴럴 네트워크(CUDA Deep Neural Networks)입니다. 이것은 인공지능을 완전히 혁명적으로 바꿨고, 현대 AI의 빅뱅을 일으켰습니다.

(CUDA X 소개 영상)

20년 전, 우리는 가속 컴퓨팅을 위한 단일 아키텍처인 CUDA를 구축했습니다. 오늘날 우리는 컴퓨팅을 재정의했습니다. 1,000개의 CUDA X 라이브러리가 개발자들이 모든 과학·공학 분야에서 돌파구를 마련하도록 돕습니다.

  • cuOpt — 의사결정 최적화
  • cuLitho — 반도체 리소그래피 연산
  • cuDSS — 직접 희소 행렬 솔버
  • cuEquivariance — 기하학 인식 신경망
  • Ariel — AI 무선 액세스 네트워크(AI RAN)
  • Warp — 미분 가능 물리학
  • ParBricks — 유전체학

이 모든 라이브러리의 근저에는 알고리즘이 있습니다. 그리고 그 알고리즘들은 아름답습니다.


[1:16:20] 모든 것은 시뮬레이션 — NVIDIA의 본질

방금 여러분이 보신 것은 모두 시뮬레이션입니다. 일부는 원리 기반 솔버(principle solver), 즉 근본적인 물리 솔버였습니다. 일부는 AI 서로게이트(AI surrogate), AI 물리 모델이었습니다. 그리고 일부는 피지컬 AI(Physical AI), 즉 로봇공학 모델이었습니다.

모든 것이 시뮬레이션이었습니다. 애니메이션된 것은 하나도 없습니다. 수작업으로 만든 것은 하나도 없습니다. 모든 것이 완전히 시뮬레이션됐습니다.

이것이 근본적으로 NVIDIA가 하는 일입니다. 알고리즘에 대한 이해와 컴퓨팅 플랫폼을 연결함으로써 이 기회들을 열어젖히는 것입니다.

NVIDIA는 수직 통합된 컴퓨팅 회사이면서, 세계와는 수평으로 열린 통합을 유지합니다. 이것이 CUDA X입니다.


[1:18:40] AI 네이티브 기업들과 1,500억 달러 VC 투자

방금 여러분은 수많은 기업들을 보셨습니다. 월마트(Walmart), 로레알(L'Oreal), JP모건(JP Morgan), 로슈(Roche), 토요타(Toyota). 오늘날 사회를 정의하는 기업들입니다. 세계에서 가장 큰 기업들입니다.

동시에, 여러분이 들어본 적 없는 기업들도 많습니다. 우리는 이들을 'AI 네이티브(AI natives)'라고 부릅니다. 수많은 소규모 기업들입니다. 그 목록은 어마어마합니다. 너무 많아서 어떻게 보여드려야 할지 몰랐습니다. 그래서 아무것도 안 보이게 했습니다. 그래도 아무도 섭섭하지 않겠죠.

그 목록 안에는 완전히 새로운 기업들이 있습니다. 여러분이 몇 개는 들어보셨을 것입니다. 오픈AI(OpenAI), 앤트로픽(Anthropic), 그리고 수많은 기업들이 각자의 수직 분야를 서비스하고 있습니다.

지난 2년, 특히 지난 1년 사이에 무언가가 일어났습니다. 우리는 AI 네이티브 기업들과 오랫동안 협력해왔습니다. 그런데 지난 1년간 그 성장이 폭발적으로 치솟았습니다. 왜 그런지 설명하겠습니다.

이 산업에 사상 최대의 벤처 투자금이 쏟아졌습니다. 1,500억 달러(약 150billion dollars)가 스타트업에 투자됐습니다. 인류 역사상 최대 규모입니다. 또한 이번이 처음으로 투자 단위가 수백만 달러, 수천만 달러에서 수억 달러, 수십억 달러로 확대된 사례입니다.

그 이유는 단 하나입니다. 역사상 처음으로, 이 기업들 하나하나가 컴퓨팅을 필요로 하기 때문입니다. 그것도 엄청난 양의 컴퓨팅을 말입니다. 이들은 토큰을 필요로 합니다. 엄청난 양의 토큰을요. 이들은 직접 토큰을 생성하거나, 앤트로픽·오픈AI 등이 생성한 토큰을 통합하고 부가가치를 더하는 방식으로 운영됩니다.

이 산업은 여러 면에서 완전히 다릅니다. 하지만 한 가지 분명한 것은, 이들이 이미 만들어내는 놀라운 가치는 매우 실질적이라는 점입니다.

AI 네이티브 기업들, 이들 모두는 우리가 컴퓨팅을 재발명했기 때문에 탄생했습니다. PC 혁명 때 수많은 새 기업이 탄생했듯, 인터넷 혁명 때, 모바일·클라우드 혁명 때마다 수많은 기업이 태어났습니다. 각 세대는 자신만의 표준을 가졌고, 우리는 지금 그 중 하나의 주요 표준을 말하고 있습니다.

이번 세대도 마찬가지입니다. 우리는 컴퓨팅을 재발명했습니다. 당연히 완전히 새롭고 중요한 기업들이 나타날 것입니다. 과거 Google, Amazon, Meta가 그랬던 것처럼, 세상의 미래에 결정적 영향을 미치는 기업들이 이번 컴퓨팅 플랫폼 전환에서도 탄생할 것입니다. 우리는 지금 새로운 플랫폼 전환의 시작 지점에 서 있습니다.


[~1:20:00] AI 3단계 진화 — 생성형, 추론, 에이전틱

지난 2년 동안 무슨 일이 있었을까요? 우리는 딥러닝과 AI를 연구해왔고, 현대 AI의 빅뱅이 일어난 바로 그 자리에 있었습니다. 그렇다면 왜 특히 지난 2년이었을까요? 세 가지가 있습니다.

첫째, 챗GPT(ChatGPT). 생성형 AI 시대를 열었습니다. 단순히 인식하고 이해하는 것을 넘어, 번역하고 새로운 콘텐츠를 생성할 수 있게 됐습니다. 저는 생성형 AI와 컴퓨터 그래픽의 융합을 보여드렸습니다. 컴퓨터 그래픽이 생명을 얻었습니다. 전 세계 모든 사람이 챗GPT를 써야 합니다. 저도 매일 아침 씁니다. 오늘 아침에도 충분히 활용했습니다.

챗GPT는 생성형 AI 시대입니다. 생성형 컴퓨팅과 기존 컴퓨팅의 차이, 이것은 소프트웨어의 능력 문제이지만 컴퓨팅이 이루어지는 방식을 근본적으로 바꿨습니다. 컴퓨팅은 예전에는 '검색(retrieval)' 기반이었습니다. 이제는 '생성(generative)'입니다. 컴퓨터 아키텍처, 제공 방식, 구축 방식, 컴퓨팅의 의미 자체가 모두 바뀌는 이유가 여기 있습니다.

둘째, 추론 AI — o1. o3으로 도약했습니다. 추론을 통해 AI가 스스로 반성하고, 생각하고, 계획하고, 문제를 분해할 수 있게 됐습니다. 이해할 수 없는 문제를 이해할 수 있는 단계나 부분으로 쪼개고, 스스로를 연구에 근거하게 만들 수 있게 됐습니다. o1은 생성형 AI를 신뢰할 수 있고, 진실에 근거한 것으로 만들었습니다. 챗GPT는 그렇게 도약했고, 이는 매우 중요한 순간이었습니다.

추론에 필요한 입력 토큰의 양과 추론을 위해 생성되는 출력 토큰의 양이 엄청나게 늘어났습니다. 모델 자체는 약간 더 컸지만, 컨텍스트를 위한 입력 토큰과 사고를 위한 출력 토큰이 컴퓨팅 수요를 엄청나게 끌어올렸습니다.

셋째, 클로드 코드(Claude Code). 최초의 에이전틱(agentic) 모델입니다. 파일을 읽고, 코딩하고, 컴파일하고, 테스트하고, 평가하고, 다시 반복할 수 있습니다. 클로드 코드는 소프트웨어 엔지니어링을 혁명적으로 바꿨습니다.

여러분도 잘 아시겠지만, NVIDIA 전체가 클로드 코드, 코덱스(Codex), 커서(Cursor) 중 하나 혹은 셋 모두를 100% 활용하고 있습니다. 오늘날 NVIDIA에서 AI 에이전트의 도움 없이 코딩하는 소프트웨어 엔지니어는 단 한 명도 없습니다.

클로드 코드는 완전히 새로운 변곡점을 만들었습니다. 처음으로 AI에게 '무엇을(what)', '어디에(where)', '언제(when)', '어떻게(how)'를 묻는 게 아니라, '만들어라(create)', '해라(do)', '구축해라(build)'라고 명령합니다. 도구를 사용하고, 컨텍스트를 파악하고, 파일을 읽도록 명령합니다. AI는 에이전틱 방식으로 문제를 분해하고, 추론하고, 반성하고, 실제로 작업을 수행합니다.

인식하는 AI가 생성하는 AI가 됐습니다. 생성하는 AI가 추론하는 AI가 됐습니다. 추론하는 AI는 이제 실제로 생산적인 업무를 수행하는 AI가 됐습니다.


[~1:25:00] 추론 인플렉션의 도래

이 자리의 모든 분이 알고 있듯, NVIDIA GPU에 대한 컴퓨팅 수요는 하늘을 찌릅니다. 현물 가격은 치솟고, GPU를 구하려 해도 찾을 수 없습니다. 그러면서도 우리는 엄청난 양의 GPU를 출하하고 있고, 수요는 계속 올라가고 있습니다.

그 이유가 있습니다. 이 근본적인 변곡점, 즉 AI가 비로소 생산적인 업무를 수행할 수 있게 됐기 때문입니다. 그래서 추론의 변곡점이 도래했습니다.

AI는 이제 생각해야 합니다. 생각하기 위해서는 추론(inference)해야 합니다. AI는 이제 무언가를 해야 합니다. 무언가를 하기 위해서는 추론해야 합니다. AI는 읽어야 합니다. 그러기 위해서도 추론해야 합니다. AI가 추론하고, 생각하고, 실행하고, 생성하는 모든 과정에서 토큰을 만들어야 합니다. 훈련(training)의 시대는 지나갔습니다. 이제는 추론의 시대입니다.

추론 인플렉션이 도래한 바로 이 시점에, 필요한 토큰의 양, 즉 컴퓨팅 수요는 약 1만 배 증가했습니다.

여기에 두 가지를 결합해보겠습니다. 지난 2년간 작업당 컴퓨팅 수요는 1만 배 증가했고, 실제 사용량은 약 100배 증가했습니다. 이 둘을 합치면, 지난 2년간 컴퓨팅 수요가 100만 배 증가했다는 결론이 나옵니다.

이것은 우리 모두가 느끼는 것입니다. 모든 스타트업이 느끼고 있고, 오픈AI가 느끼고 있으며, 앤트로픽이 느끼고 있습니다. 더 많은 컴퓨팅 용량을 확보할 수 있다면, 더 많은 토큰을 생성하고, 매출이 오르고, 더 많은 사람들이 이용할 수 있고, AI는 더 스마트해질 것입니다. 우리는 지금 그 긍정적인 플라이휠 시스템(flywheel)에 도달해 있습니다. 추론 인플렉션은 이미 도래했습니다.


[1:28:09] 5,000억 달러에서 1조 달러로

작년 이 자리에서, 그 시점에서 저는 2026년까지 블랙웰(Blackwell)과 루빈(Rubin)에 대한 확실한 수요 및 구매 주문이 약 5,000억 달러에 달한다고 말했습니다.

작년에 그렇게 말했습니다.

여러분이 별로 놀라지 않으신다는 거 압니다. 왜인지 알고 있습니다. 여러분 모두 역대 최고 실적을 냈기 때문이지요.

자, 지금 여기서 말씀드리겠습니다. GTC 이후 몇 달이 지난 지금, 작년 GTC로부터 딱 1년이 지난 지금, 이 자리에서 저는 2027년까지, 최소 1조 달러(at least $1 trillion)의 수요를 예측합니다.

말이 됩니까? 이것이 제가 나머지 시간에 설명할 내용입니다. 사실 저는 컴퓨팅 수요가 그보다 훨씬 높아질 것이라고 확신합니다. 이유가 있습니다.


[1:29:00] 2025년 — 추론의 해, 그리고 앞으로

우리는 작년 한 해 엄청난 작업을 했습니다. 아시는 것처럼 2025년은 NVIDIA의 추론의 해(year of inference)였습니다. 우리는 훈련과 사후 훈련에서 탁월할 뿐 아니라, AI의 모든 단계에서 탁월하게 만들고자 했습니다. 구축된 인프라에 대한 투자가 원하는 기간만큼 확장될 수 있도록, NVIDIA 인프라의 유용 수명이 길어질수록 비용이 낮아지도록 하기 위해서였습니다.

확신컨대 NVIDIA 시스템은 세계에서 AI 인프라를 위한 가장 낮은 비용의 인프라입니다.

작년 앤트로픽이 NVIDIA를 선택했고, 메타 SL(Meta SL)이 NVIDIA를 선택했습니다. 오픈소스 모델들은 프런티어에 근접했습니다. 그리고 NVIDIA는 오늘날 세계 유일의 플랫폼입니다. 언어, 생물학, 컴퓨터 그래픽, 컴퓨터 비전, 음성, 단백질, 화학, 로봇공학 등 모든 AI 도메인에서, 모든 AI 모델에 걸쳐 실행되는 단 하나의 플랫폼입니다. 엣지에서 클라우드까지, 어떤 언어로도 말이죠.

NVIDIA의 아키텍처는 이 모든 분야에서 통용됩니다. 그렇기 때문에 우리가 가장 낮은 비용, 가장 높은 신뢰도의 플랫폼이 될 수 있는 것입니다. 1조 달러라는 어마어마한 인프라를 구축할 때, 그 투자가 활용될 것이고, 성능이 뛰어나고, 놀랍도록 비용 효율적이며, 오랫동안 유용 수명을 유지할 것이라는 완전한 확신이 있어야 합니다. NVIDIA에 구축하면 그 확신을 가질 수 있습니다.

우리는 이제 전 세계 어디서나, 어떤 클라우드에서나, 어떤 국가에서든, 완전한 신뢰로 구축할 수 있는 유일한 인프라임을 증명했습니다. 클라우드에 올려도 좋고, 온프레미스에 구축해도 좋고, 어느 나라에서든 우리는 기꺼이 지원합니다. 우리는 이제 모든 AI를 실행하는 컴퓨팅 플랫폼입니다.

현재 NVIDIA 비즈니스의 60%는 상위 5개 하이퍼스케일러(hyperscaler)에서 옵니다. 그 안에서도 일부는 내부 AI 소비입니다. 추천 시스템, 테이블 기반 협업 필터링과 콘텐츠 필터링이 딥러닝과 대형 언어 모델로 이동하고, 검색도 딥러닝·대형 언어 모델로 이동하고 있습니다. 거의 모든 하이퍼스케일 워크로드가 NVIDIA GPU가 탁월하게 처리하는 워크로드로 전환되고 있습니다.

나머지 40%는 지역 클라우드(regional cloud), 소버린 클라우드(sovereign cloud), 엔터프라이즈, 산업 로봇공학, 엣지, 대형 시스템, 슈퍼컴퓨팅, 소형 서버, 엔터프라이즈 서버 등 모든 곳입니다.

AI의 다양성이 곧 AI의 회복력입니다. AI의 도달 범위가 곧 AI의 회복력입니다. 이것은 단일 앱 기술이 아닙니다. 이제 근본적입니다. 이것은 절대적으로 새로운 컴퓨팅 플랫폼 전환입니다.

우리의 역할은 기술을 계속 발전시키는 것입니다. 작년 가장 중요한 결정 중 하나는 호퍼(Hopper) 아키텍처가 최고조일 때 과감하게 재설계를 결정한 것입니다. NVLink-8 방식을 NVLink-72로 완전히 재아키텍팅하고, 컴퓨팅 시스템을 완전히 분리 설계하여 그레이 블랙웰(Grace Blackwell) NVLink-72를 만들었습니다. 이 큰 도박은 쉽지 않았습니다. 이 자리에 계신 수많은 파트너 여러분의 엄청난 노고가 있었습니다. 진심으로 감사드립니다.

이번 행사 관련 발표와 보도자료, 블로그는 https://nvidianews.nvidia.com/online-press-kit/gtc-2026-news 에서 확인할 수 있다.

[테크수다 기자 도안구 eyeball@techsuda.com]