메타(Meta)의 AI 인프라 전략: 엔비디아·AMD·구글 TPU·자체 칩, 4중 벤더 체제 완성
[테크수다 기자 도안구 eyeball@techsuda.com] 2026년 2월, 메타(Meta)가 엔비디아(NVIDIA), AMD, 구글(Google)과 잇달아 대형 계약을 체결했다. AMD 협력은 CES 2026 기조연설에서 예고된 내용이 이번에 실현된 것이고, 구글(Google) TPU 계약은 메타(Meta)가 AI 훈련(training) 칩 다변화에 본격 나섰음을 의미한다. 메타(Meta)는 지금 AI 인프라 주도권을 스스로 설계하고 있다.
2026년 2월 한 달 사이, 메타(Meta)는 세 건의 대형 AI 인프라 계약을 연달아 성사시켰다. 2월 17일 엔비디아(NVIDIA)와 다년간 전략적 파트너십을 체결했고, 2월 24일에는 AMD와 최대 6기가와트(GW) 규모의 GPU 공급 계약을 공식화했다. 여기에 구글(Google)과 텐서 프로세싱 유닛(TPU·Tensor Processing Unit) 임대 계약도 체결됐다는 사실이 추가로 확인됐다. 복수의 관계자에 따르면 이 계약은 수십억 달러 규모의 다년간 계약으로, 메타(Meta)가 자체 데이터센터에 구글(Google) TPU를 직접 도입하는 방안도 논의 중인 것으로 알려졌다.
마크 저커버그(Mark Zuckerberg) 메타(Meta) 최고경영자는 "엔비디아(NVIDIA)의 베라 루빈(Vera Rubin) 플랫폼으로 최첨단 클러스터를 구축해 모든 사람에게 개인 초지능(personal superintelligence)을 제공할 것"이라고 밝혔다.
리사 수(Lisa Su) AMD 최고경영자 박사는 "이번 협력은 역사상 가장 대규모 AI 배치 중 하나를 가속화하며 AMD를 글로벌 AI 구축의 중심에 놓는다"고 말했다.
젠슨 황(Jensen Huang) 엔비디아(NVIDIA) 창업자 겸 최고경영자는 "CPU, GPU, 네트워킹, 소프트웨어 전반에 걸친 공동 설계로 엔비디아(NVIDIA) 풀 플랫폼을 메타(Meta) 연구자·엔지니어들에게 제공한다"고 말했다.
AMD 계약 구조, 쉽게 이해하기
이번 AMD-메타(Meta) 계약에는 일반적인 공급 계약과 다른 독특한 구조가 포함됐다. AMD가 메타(Meta)에 주식을 받을 권리인 워런트(warrant)를 부여한 것이다.
AMD: "우리 주식 최대 1억 6000만 주를 살 수 있는 권리를 줄게. 단, 조건이 있어."
조건 1 — 출하 마일스톤: 메타(Meta)가 AMD GPU를 1GW씩 실제로 받을 때마다 권리가 단계적으로 발생하고, 6GW까지 늘어난다.
조건 2 — 주가 기준: AMD 주가가 특정 수준 이상이어야 행사 가능하다.
조건 3 — 기술·상업 성과: 메타(Meta)가 AMD GPU로 실제 성과를 내야 최종 행사된다.
"우리가 약속대로 납품하고, 주가도 오르고, 너희도 잘 써야 이익을 나눈다"는 구조다. 두 회사가 단순 거래가 아닌 성과를 공유하는 파트너 구조로 묶인 셈이다.
AMD 최고재무책임자 진 후(Jean Hu)는 "이 파트너십이 다년간 매출 성장을 견인하고 비GAAP 주당순이익(EPS)에 기여할 것"이라고 전망했다.
메타(Meta) AI 인프라 4중 포트폴리오의 속뜻
메타(Meta)의 전략은 명확하다. 어느 한 벤더에도 종속되지 않는 것이다.
엔비디아(NVIDIA)는 대규모 AI 훈련(training)의 절대 강자다. H100·H200 시리즈는 현재까지 사실상 대체재가 없으며, 차세대 베라 루빈(Vera Rubin) 플랫폼 도입도 확정됐다. 엔비디아(NVIDIA)는 메타(Meta)의 구글(Google) TPU 협상 소식 이후 신속하게 파트너십을 강화했다. 젠슨 황(Jensen Huang)은 구글(Google) TPU로 개발된 최고 수준의 AI 모델이 나왔다는 사실을 주시하며 기존 고객 붙잡기에 적극 나선 것으로 전해진다.
AMD는 추론(inference) 워크로드의 현실적 대안으로 부상했다. AMD 헬리오스(Helios) 랙스케일 아키텍처와 오픈 랙 와이드(Open Rack Wide·ORW) 폼팩터는 메타(Meta)-AMD 공동 개발 결과물로, 오픈 컴퓨트 프로젝트(Open Compute Project·OCP)를 통해 업계 표준으로 확산되고 있다.
이번 AMD 계약은 CES 2026에서 리사 수(Lisa Su) 박사가 예고한 협력이 공식 계약으로 실현된 것이기도 하다. 관계자에 따르면 메타(Meta)는 AMD GPU를 주로 기존 AI 모델 구동을 위한 추론(inference)에 활용할 계획이다.
구글(Google) TPU의 도입은 이번 계약 중 가장 주목할 대목이다. 대부분의 시장 전문가들은 엔비디아(NVIDIA)와의 기술 격차를 이유로 TPU가 추론(inference) 시장에서만 경쟁력이 있다고 봐왔다. 그러나 메타(Meta)가 TPU를 AI 훈련(training)에 활용할 계획이라는 점이 확인되면서 이 전제가 흔들리고 있다. 구글(Google) TPU로 훈련된 앤트로픽(Anthropic)의 클로드(Claude)와 구글(Google) 자체 모델이 세계 최고 수준의 AI 모델로 평가받고 있다는 점도 메타(Meta)의 선택에 영향을 미쳤을 것으로 보인다.
구글(Google)은 메타(Meta) 외에도 대형 투자사와 합작법인(joint venture)을 통해 TPU를 외부 고객에게 임대하는 사업을 확장 중이며, 이는 엔비디아(NVIDIA) 중심의 AI 칩 시장에 대한 본격적인 도전으로 해석된다.
자체 칩 MTIA(Meta Training and Inference Accelerator)는 추천 알고리즘, 광고 랭킹 등 메타(Meta) 고유 워크로드에 특화됐다. 메타(Meta)는 지난해 자체 AI 훈련 칩 개발에 어려움을 겪은 것으로 전해지며, 이것이 구글(Google) TPU 계약을 앞당긴 요인 중 하나로 거론된다. MTIA는 현재 추론(inference) 효율화에 집중하며, 외부 GPU 의존도를 점진적으로 낮추는 역할을 담당하고 있다.
수십억 명에게 개인 초지능 서비스를 제공하려는 메타(Meta)에게 단일 파트너십은 처음부터 선택지가 아니었다. 엔비디아(NVIDIA)는 훈련 주력, AMD는 추론 다변화, 구글(Google) TPU는 훈련 대안, MTIA는 비용 절감이라는 역할 분담이 뚜렷해지고 있다. CES 2026 예고부터 2월 한 달 사이 세 건의 대형 계약 실현까지, 메타(Meta)의 행보는 다음 AI 시대의 인프라 경쟁이 칩 하나의 성능이 아니라 생태계 설계력에 달려 있음을 보여준다.
[테크수다 기자 도안구 eyeball@techsuda.com]