테크수다 2026 AI 용어 설명(5월 업데이트)

[테크수다 기자 도안구 eyeball@techsuda.com] 2023년 매킨지가 공개한 AI 용어 설명을 번역한 바 있다. 2026년 신년을 맞아 이번에는 구글 제미나이에게 물어 새로 정리했다. 그리고 2분기에 접어들면서, 1분기 동안 새로 떠오르거나 의미가 다시 잡힌 용어들을 덧붙인다.

2026년 AI 키워드는 '실행'이다. 1분기를 지나며 이 키워드는 더 분명해졌다. 논의의 무게중심은 '에이전트가 무엇을 할 수 있는가'에서 '에이전트를 어떻게 운영하고 통제하며 연결할 것인가'로 옮겨갔다.

  • 에이전틱 AI (Agentic AI): 2026년 가장 중요한 용어다. 사용자의 지시를 기다리는 수준을 넘어, 목표를 이루기 위해 스스로 계획을 세우고 외부 도구(이메일, 결제 시스템 등)를 사용해 업무를 끝낸다. (예: "다음 주 제주도 여행을 예약해 줘"라고 하면 항공권 결제부터 호텔 예약까지 직접 마친다.)
  • 피지컬 AI (Physical AI): AI가 디지털 세상(화면)을 벗어나 로봇, 드론, 자율주행차 같은 실제 하드웨어와 결합한 형태다. 센서를 통해 현실을 인식하고 직접 움직이는 '몸을 가진 AI'를 가리킨다.
  • 고급 추론 (Advanced Reasoning): AI가 답을 내놓기 전, 내부적으로 수만 번 시뮬레이션을 거쳐 스스로 오류를 바로잡는 단계다. 인간처럼 '심사숙고'하는 능력을 강화한 모델들을 가리킨다.

AI 용어 설명 (2026년 기준)

1. AI 기본 개념

AI (Artificial Intelligence / 인공지능)기계가 인간 지능과 비슷한 사고, 학습, 문제 해결 능력을 수행하도록 만드는 기술 전체를 가리킨다.

Machine Learning (ML / 머신러닝)데이터로부터 스스로 규칙을 익히는 AI 기법이다. 반복 학습을 통해 정확성이 올라간다.

Deep Learning (DL / 딥러닝)신경망을 기반으로 하는 머신러닝의 하위 분야로, 인지·패턴 인식 능력이 뛰어나 이미지·음성·텍스트 같은 복잡한 데이터를 잘 처리한다.

Natural Language Processing (NLP / 자연어처리)인간의 언어(말과 글)를 이해하고 생성하는 AI 기술이다.

2. 생성·응용 중심 용어

Generative AI (생성 AI)새로운 콘텐츠(텍스트, 이미지, 영상, 음악 등)를 만들어 내는 AI 기술군이다. 예: GPT, DALL·E, 이미지 생성 모델 등.

Large Language Model (LLM / 거대 언어 모델)방대한 텍스트를 학습해 자연어를 생성하고 이해하는 모델이다. GPT 계열, Gemini, Claude 등이 대표적이다.

Multimodal Model (다중모달 모델)텍스트뿐 아니라 이미지·음성 등 여러 형태의 데이터를 동시에 처리하는 모델이다.

Hallucination (AI 환각)AI가 사실이 아닌 내용을 사실처럼 만들어 내는 오류 현상이다.

3. AI 상호작용과 활용 구조

Prompt (프롬프트)AI에게 주는 명령 또는 질문이다. 질의의 품질이 결과물의 품질을 좌우한다.

Persona (페르소나)AI가 특정 역할이나 전문성을 가진 것처럼 행동하도록 설정하는 지시다.

Context Window (컨텍스트 윈도우)AI가 한 번에 기억하고 처리할 수 있는 정보의 한계다.

4. 고급 AI 개념 (2026년 주목)

Agentic AI / 에이전틱 AI목표를 받아 스스로 판단하고 행동하는 AI다. 단순한 명령 수행을 넘어 스스로 계획하고 실행한다.

Diffusion Transformer (DiT / 확산 트랜스포머)2026년 이미지·영상 생성 분야에서 떠오르는 구조로, 전체 이미지의 맥락을 이해해 고품질 결과를 만들어 낸다.

Advanced Reasoning (고급 추론)AI가 여러 단계의 내부 평가와 검증을 거쳐 더 논리적이고 정확한 결론을 도출하는 능력이다.

World Models (월드 모델)AI가 외부 환경의 물리적 규칙과 상호작용을 흉내내어 스스로 상황을 이해하고 예측하는 모델이다.

소버린 AI (Sovereign AI)국가나 기업이 다른 나라에 의존하지 않고 자체 데이터와 인프라로 구축한 '독립적 AI'다. 데이터 주권과 보안의 중요성이 커진 2026년의 핵심 흐름이다.

컨피덴셜 컴퓨팅 (Confidential Computing)데이터 처리 과정 중에도 정보를 암호화해, AI 모델이 데이터를 학습하거나 추론할 때 정보가 새어 나가지 않도록 보호하는 보안 기술이다.

5. 공존을 위한 약속

AI가 일상 깊숙이 들어온 만큼, 인간과의 관계 정립도 중요해졌다.

  • 휴먼-인-더-루프 (Human-in-the-Loop): AI가 모든 것을 결정하지 않고, 최종 판단이나 윤리 검증 단계에 반드시 인간이 개입하도록 한 설계 방식이다. 신뢰를 쌓기 위한 필수 장치다.
  • 디시전 인텔리전스 (Decision Intelligence): AI가 단순히 데이터를 분석하는 데 그치지 않고, "이런 결정을 내리면 어떤 결과가 나올지" 시나리오를 제시해 인간의 의사결정을 돕는 기술이다.

6. 로봇·물리 시스템과 AI

Physical AI / 물리적 AIAI가 로봇·물리적 시스템과 결합해 환경을 인식하고 동작을 수행하는 기술이다. 산업용 로봇, 협동로봇, 자율주행, 수술 로봇 등 여러 분야에 적용된다.

7. AI 거버넌스·정책·윤리

Responsible AI (책임 있는 AI)공정성, 투명성, 설명 가능성, 프라이버시 보호 등을 고려한 AI 설계와 운영 원칙이다.

AI Governance (AI 거버넌스)조직과 정책 차원에서 AI 기술을 안전하고 신뢰할 수 있게 활용하기 위한 규칙과 관리 체계를 세우는 영역이다.

8. 하드웨어와 운영

GPU (Graphics Processing Unit / 그래픽 처리 장치)대규모 AI 연산에 특화된 병렬 처리 장치로, 대부분의 AI 모델 학습과 추론에 쓰인다.

Edge AI (에지 AI)데이터를 클라우드가 아닌 사용자의 기기나 로컬 서버에서 처리하는 AI다. 응답 속도와 프라이버시 측면에서 강점이 있다.

9. 과거와의 비교: 2025 vs 2026

  • AGI (Artificial General Intelligence / 범용 AI) 는 여전히 논의 대상이지만, 산업계에서는 정의가 흐려지거나 다시 브랜딩되는 흐름이다. 일부 기업은 AGI 대신 "Powerful AI"나 "Human-aligned AI" 같은 새 용어를 쓴다. (The Verge)
  • 2025년에는 GANs, transformer, neural network 같은 기본 구조 용어가 중심이었다. 반면 2026년에는 에이전틱 AI, 고급 추론, DiT, 물리적 AI처럼 응용·능동적 개념이 떠오르고 있다. (AI 코리아 커뮤니티 뉴스레터)

10. 용어 정리표 (핵심)

카테고리 용어 간단 설명
기초 개념 AI 기계의 지능적 수행 전체
ML 데이터 학습 기반 AI
DL 심층 신경망 기반 학습
생성 / 응용 Generative AI 콘텐츠 생성 AI
LLM 거대 언어 모델
Multimodal 다중 데이터 입력 처리
고급 개념 Agentic AI 자율 행동이 가능한 AI
DiT 확산형 트랜스포머
Advanced Reasoning 내적 추론 강화
물리 시스템 Physical AI 로봇과 물리 세계 AI
거버넌스 Responsible AI 책임 있는 AI 원칙
하드웨어 GPU AI 연산용 처리장치
Edge AI 로컬 데이터 처리 AI

11. 2026년 2분기 업데이트: '에이전트 운영 시대'의 어휘

1분기를 보내며 한 가지가 분명해졌다. 2026년의 진짜 변화는 '더 똑똑한 모델'이 아니라 '실제로 일을 끝내는 에이전트 시스템'이라는 점이다. 글로벌 IT 지출이 4.7조 달러를 넘어서고 하이퍼스케일러 자본지출이 2028년까지 1조 달러를 향해 가는 가운데, 좌석 단위 SaaS 모델이 '결과 단위(workflow outcome)' 모델로 바뀌는 흐름이 본격화됐다. 시장조사 자료에 따르면 멀티 에이전트 시스템 관련 문의는 2024년 1분기 대비 2025년 2분기까지 1,445% 늘었다.

이 변화를 따라잡으려면 새로 떠오른 어휘 — 특히 프로토콜·오케스트레이션·평가·검색 최적화 영역의 용어들 — 도 함께 익혀야 한다.

11-1. 에이전트 인프라와 프로토콜

MCP (Model Context Protocol / 모델 컨텍스트 프로토콜)앤트로픽이 제안한 오픈 표준이다. AI 모델이 외부 도구와 데이터 소스에 연결되는 방식을 표준화한다. 2026년 들어 Claude, ChatGPT, VS Code, Cursor 등에서 널리 채택되며 사실상 '에이전트의 USB-C'로 자리잡았다. 수직 통합 — 모델과 도구·데이터 사이의 연결 — 을 담당한다.

A2A (Agent-to-Agent / 에이전트 간 프로토콜)구글과 50여 파트너가 공개한 오픈 프로토콜이다. 서로 다른 프레임워크와 언어로 만든 에이전트들이 직접 대화하고 협업할 수 있게 한다. 수평 통합 — 에이전트와 에이전트 사이의 연결 — 을 담당한다. MCP가 "공구를 건네주는 것"이라면 A2A는 "작업자들이 업무를 분담하는 것"에 가깝다.

AGENTS.md에이전트가 프로젝트와 코드베이스를 이해하도록 돕는 마크다운 사양 파일이다. README가 사람을 위한 문서라면 AGENTS.md는 에이전트를 위한 문서다. 에이전트 네이티브 제품 설계의 출발점으로 떠올랐다.

에이전틱 웹 (Agentic Web)사람이 직접 브라우저로 사이트를 돌아다니는 대신, 에이전트가 사용자를 대신해 웹을 탐색하고 거래하며 협상하고 협업하는 새로운 웹 패러다임이다. 일부에서는 이를 'Web 4.0'으로 부르기도 한다.

11-2. 에이전트 디자인 패턴

ReAct (Reason + Act)"생각(Thought) → 행동(Action) → 관찰(Observation)"을 반복하며 매 단계 추론을 갱신하는 에이전트 루프다. LangChain과 OpenAI Agents SDK의 기본 패턴이다.

Reflexion (리플렉션)시도가 끝날 때마다 자기 비평(self-critique) 단계를 명시적으로 추가해, 그 비평을 다음 시도의 가이드로 삼는 변형 루프다. 장기 호흡 코딩과 추론 작업에서 반복 실패를 줄이는 데 쓰인다.

Plan-and-Execute (계획-실행 분리)계획 모델이 단계별 플랜을 만들고, 더 저렴한 실행 모델이 한 단계씩 처리하는 2단계 루프다. 계획 토큰의 소비를 줄여 장시간 워크플로의 비용을 낮춘다. OpenAI의 'Deep Research'가 대표 구현이다.

Multi-Agent Orchestration (멀티 에이전트 오케스트레이션)하나의 거대 에이전트 대신, 전문화된 에이전트들을 조율하는 '퍼펫티어(puppeteer)' 오케스트레이터를 두는 설계다. 모놀리식이 마이크로서비스로 분화한 흐름이 에이전트 영역에서도 똑같이 일어나고 있다.

Reasoning Effort / Thinking Budget (추론 예산)모델이 답을 내기 전 내부 추론에 쓸 토큰의 양을 호출 시점에 지정하는 파라미터다. Claude의 extended_thinking, OpenAI의 reasoning_effort: low/medium/high가 그 예다. 추론 벤치마크에서는 예산이 클수록 결과가 좋지만, 약 1만 토큰 이후에는 효용이 체감된다.

11-3. 에이전트 운영과 평가

Success Rate (성공률)에이전트 운영의 핵심 지표다. 단계 성공(step success), 플랜 성공(plan success), 엔드투엔드 성공(end-to-end success)으로 세분화해 합의해 두지 않으면 "내 성공률과 네 성공률이 다르다"는 분쟁이 반복된다.

Evals (에이전트 평가체계)모델이 아니라 에이전트의 워크플로 자체를 평가하는 체계다. 출력 품질뿐 아니라 도구 호출 정확도, 복구 능력, 비용, 지연 시간까지 다룬다.

Permissioning / Sandboxing (권한·샌드박싱)에이전트가 어디까지 접근하고 어디서 멈춰야 하는지를 정의하고 격리하는 운영 기법이다. EU AI Act 시행과 맞물려 2분기부터는 사실상 필수 항목이 됐다.

Long-running Agent / Digital Employee (장시간 실행 에이전트 / 디지털 직원)한 번의 질의응답이 아니라, 며칠이나 몇 주에 걸쳐 파일·메모리·상태를 유지하며 일을 진행하는 에이전트다. 좌석 기반 SaaS의 대체재로 거론된다.

Work as a Service (WaaS / 결과 제공형 서비스)"좌석 X개월 사용권"이 아니라 "이 워크플로의 완료된 결과 N건"을 파는 비즈니스 모델이다. 에이전틱 AI 경제의 새 단위다.

11-4. AI 검색 최적화 (AIEO 패밀리)

기존 SEO가 흔들리며 새로 자리잡은 영역이다. 한국 시장에서는 도안구 본인이 편집장으로서 추적해 온 분야이기도 하다.

GEO (Generative Engine Optimization / 생성형 엔진 최적화)ChatGPT, Claude, Gemini, Perplexity 등 생성형 AI가 답변을 만들 때 우리 브랜드와 콘텐츠가 인용되도록 최적화하는 전략이다. SEO가 'SERP 클릭'을 노린다면 GEO는 'AI 답변 안의 인용'을 노린다.

AEO (Answer Engine Optimization / 답변 엔진 최적화)구글 AI Overview, Featured Snippet, 음성 비서 등 즉답형 답변에 콘텐츠가 노출되도록 최적화하는 전략이다. 짧고 구조화된 Q&A와 스키마 마크업이 핵심이다.

LLMEO / LEO (LLM Engine Optimization)ChatGPT, Claude, Perplexity, Gemini 등 LLM별 특성에 맞춰 차별화된 최적화 전략을 펴는 접근이다. 모델마다 인용 패턴과 신뢰 신호가 다르다는 전제에서 출발한다.

Search Everywhere Optimization (어디서나 검색 최적화)검색 엔진, AI 답변, 소셜, LLM 학습 데이터 등 사용자가 정보를 만나는 모든 표면을 동시에 관리하는 통합 접근이다. Ahrefs 등이 강조하는 프레임이다.

Zero-click Search (제로 클릭 검색)사용자가 AI 답변만 확인하고 사이트를 클릭하지 않는 검색 행태다. AI Overview 도입 이후 웹사이트 클릭률이 30% 이상 떨어졌다는 분석이 나왔다. 콘텐츠 사업의 비즈니스 모델 자체를 흔드는 변수다.

11-5. 콘텐츠와 문화 영역에서 떠오른 용어

AI Slop (AI 슬롭)저품질 대량 생산 AI 콘텐츠를 가리키는 비하성 표현이다. 영혼 없는 블로그 글, 손가락이 여섯 개인 스톡 이미지, 로봇 내레이션 유튜브 영상이 모두 '슬롭'에 해당한다. 2026년 들어 검색·소셜 알고리즘에서 슬롭을 걸러내는 작업이 본격화됐다.

Superintelligence (초지능 / ASI)AGI 다음 단계로, 모든 영역에서 인간을 뛰어넘는 AI다. 일부 기업이 AGI라는 정의를 회피하며 "더 강력한 AI(Powerful AI)" 같은 표현으로 우회하는 가운데, ASI 논의는 정책과 안전 영역에서 다시 활발해지고 있다.

Emergent Behavior (창발적 행동)복잡한 AI 시스템이 대규모 데이터와 상호작용하며 예측되지 않은 능력과 패턴을 보이는 현상이다. 2분기 들어 멀티 에이전트 환경에서 특히 자주 관찰되며 안전 연구의 핵심 주제로 떠올랐다.

RAMageddon (램 대란)AI 추론 수요가 폭증하면서 D램 공급이 부족해진 현상을 일컫는 신조어다. 반도체 산업 취재 맥락에서 한국 독자에게 특히 의미가 크다.

11-6. 비즈니스와 거버넌스

EU AI Act 시행 (2026년 본격 적용 단계)"에이전트가 한 일을 증명하라(prove what the agent did)"는 요구가 선택이 아닌 의무가 되는 단계다. 로깅, 감독, 감사가 에이전트 운영의 기본 항목으로 자리잡았다.

RLHF (Reinforcement Learning from Human Feedback / 인간 피드백 기반 강화학습)사전 학습된 모델을 사람의 선호 데이터로 미세조정하는 후처리 기법이다. 2026년에는 RLAIF(AI 피드백 기반)와 DPO(직접 선호 최적화) 등 변형도 함께 거론된다.

Post-training (사후 학습)사전 학습을 마친 '날것의' 모델을 RLHF, 안전 학습, 지시 튜닝 등으로 다듬는 전 과정이다. ChatGPT가 단순 텍스트 예측기를 넘어 '도움이 되는 어시스턴트'가 된 이유다.

Agentic Commerce (에이전틱 커머스)구매자 측 AI 에이전트와 판매자 측 AI 에이전트가 직접 협상하고 거래를 수행하는 B2B 거래 모델이다. 사람이 개입하지 않은 채 초 단위로 협상이 끝나는 시나리오가 시범 단계에 있다.

11-7. 2분기 추가 용어 정리표

카테고리 용어 간단 설명
프로토콜 MCP 모델-도구 수직 통합 표준
A2A 에이전트 간 수평 통합 표준
AGENTS.md 에이전트용 프로젝트 문서
디자인 패턴 ReAct 추론-행동 반복 루프
Reflexion 자기 비평 추가 루프
Plan-and-Execute 계획·실행 분리 루프
Multi-Agent Orchestration 전문 에이전트 조율 구조
운영 Reasoning Effort 추론 토큰 예산 제어
Evals 에이전트 워크플로 평가
Permissioning 권한과 샌드박싱
WaaS 결과 제공형 비즈니스 모델
검색 최적화 GEO 생성형 AI 인용 최적화
AEO 답변 엔진 최적화
LLMEO LLM별 차별화 최적화
Zero-click Search AI 답변만 보고 끝나는 검색
문화 AI Slop 저품질 대량 AI 콘텐츠
Emergent Behavior 예측 불가 창발 능력
RAMageddon AI발 D램 부족 사태
거버넌스 EU AI Act 시행 로깅과 감독 의무화 단계
Agentic Commerce 에이전트 간 자율 거래

12. 토큰과 컨텍스트 윈도우: '모델의 작업 기억' 다시 보기

용어집을 정리하다 보면 빠뜨릴 수 없는 두 단어가 있다. 토큰(token)컨텍스트 윈도우(context window) 다. 1월 용어집에는 짧게 언급만 했지만, 2분기에 들어 모델별 컨텍스트 윈도우가 200K에서 1M, 2M으로 빠르게 늘어나면서 이 둘이 다시 화제가 되고 있다. 같이 정리해 둘 만하다.

12-1. 토큰이란 무엇인가

LLM은 사람의 글을 그대로 처리하지 않는다. 글을 잘게 쪼갠 단위인 토큰으로 바꿔서 처리한다. 영어에서는 단어 하나, 또는 단어의 일부('un', 'believe', 'able' 같은 조각)가 토큰이 된다. 한국어에서는 음절이나 형태소 단위로 더 잘게 쪼개지는 일이 많다. 예를 들어 영어 "Hello"는 토큰 1개로 처리되지만, 한국어 "안녕하세요"는 모델에 따라 토큰 3~5개로 쪼개진다.

이 차이는 단순한 호기심거리가 아니라 비용과 사용량의 문제다. 토큰이 곧 과금 단위이자 컨텍스트 윈도우의 소모 단위이기 때문이다. 영어 사용자가 100토큰으로 끝낼 대화를 한국어 사용자는 보통 300~500토큰을 써서 처리한다는 보고가 있다. 같은 200K 컨텍스트 윈도우라도 한국어 사용자가 실제로 활용할 수 있는 분량은 영어 대비 3분의 1 수준이라는 뜻이다.

12-2. 컨텍스트 윈도우, '작업 기억'의 크기

컨텍스트 윈도우는 모델이 한 번의 요청에서 참조할 수 있는 텍스트의 총량이다. 입력 프롬프트, 첨부 문서, 그동안의 대화 기록, 모델이 만들어 내는 응답까지 모두 이 안에 들어간다. 모델의 '작업 기억(working memory)'이라고 보면 된다. 학습 데이터와는 별개의 개념이다.

다만 컨텍스트가 크다고 해서 무조건 좋은 것은 아니다. 토큰 수가 늘어날수록 정확도와 회상 성능이 떨어지는 컨텍스트 로트(context rot) 현상이 함께 보고된다. NVIDIA의 RULER 벤치마크에 따르면, 대부분의 모델은 광고된 용량의 50~65% 지점부터 신뢰성이 떨어지기 시작한다. 200K를 광고하는 모델은 보통 130K 부근에서 흔들린다는 의미다.

12-3. 200K 토큰은 실제로 어느 정도 분량인가

수치만 보면 감이 잘 오지 않는다. 영어 기준으로 환산하면 다음과 같다.

  • 1K(1,000) 토큰 ≈ 영어 단어 약 750개 ≈ A4 1.5~2페이지
  • 128K 토큰 ≈ 영어 단어 약 9.6만 개 ≈ 약 320페이지(중편 소설 한 권)
  • 200K 토큰 ≈ 영어 단어 약 15만 개 ≈ 약 500페이지(장편 소설 한 권)
  • 1M(100만) 토큰 ≈ 영어 단어 약 75만 개 ≈ 약 1,500페이지(『전쟁과 평화』 두 권)
  • 2M 토큰 ≈ 영어 단어 약 150만 개 ≈ 약 3,000페이지(코드베이스 전체)

한국어 기준으로 환산하면 분량이 절반 안팎으로 줄어든다.

  • 200K 토큰 ≈ 한국어 글자 약 13~16만 자 ≈ A4 약 100~150페이지(단행본 한 권)
  • 1M 토큰 ≈ 한국어 글자 약 65~80만 자 ≈ A4 약 500~700페이지(단행본 4~5권)
  • 2M 토큰 ≈ 한국어 글자 약 130만~160만 자 ≈ A4 약 1,000~1,400페이지

쉽게 말해 Claude Opus 4.7의 200K 컨텍스트 윈도우는 영어로는 장편 소설 한 권, 한국어로는 단행본 한 권 정도의 분량을 한 번에 처리할 수 있다는 뜻이다.

12-4. 모델별 컨텍스트 윈도우 비교 (2026년 5월 기준)

모델 기본 컨텍스트 확장 컨텍스트 최대 출력 영어 환산 분량 (기본) 한국어 환산 분량 (기본)
Claude Opus 4.7 200K 1M (Pro/Max+) 64K~ 약 500페이지 약 100~150페이지
Claude Opus 4.6 200K 1M (베타) 128K 약 500페이지 약 100~150페이지
Claude Sonnet 4.6 200K 1M (베타) 64K 약 500페이지 약 100~150페이지
Claude Haiku 4.5 200K 64K 약 500페이지 약 100~150페이지
GPT-5 / 5.x 400K 128K 약 1,000페이지 약 200~300페이지
Gemini 3 Pro 1M 2M (일부) 64K 약 1,500페이지 약 500~700페이지
Gemini 3 Flash 200K 32K 약 500페이지 약 100~150페이지
Gemini 1.5 Pro (구) 1M 2M 8K~32K 약 1,500페이지 약 500~700페이지
Llama 4 Scout (오픈소스) 10M 약 1.5만 페이지 약 5,000페이지
표 주석: '확장 컨텍스트'는 베타·특정 플랜·특정 사용 등급(usage tier 4) 등에서 추가로 열리는 용량이다. 영어/한국어 환산 분량은 어림치이며 글의 종류(소설·기술 문서·신문 기사)에 따라 ±30% 정도 변동한다.

12-5. 컨텍스트 윈도우의 진화: 1년 새 어디까지 왔나

시점 대표 모델 기본 컨텍스트 비고
2023년 초 GPT-3.5 4K 짧은 대화 위주
2023년 중 GPT-4 (초기) 8K~32K 보고서 한 편 분량
2024년 초 Claude 2.1 200K 책 한 권 진입
2024년 중 Gemini 1.5 Pro 1M~2M 1M 시대 개막
2025년 Claude 3.x, GPT-4 Turbo 128K~200K 200K 표준화
2026년 1분기 Claude Opus/Sonnet 4.6 200K + 1M(베타) 1M의 안정 단계 진입
2026년 2분기 Claude Opus 4.7, GPT-5.x, Gemini 3 Pro 200K~1M (기본) 2M·10M까지 등장

3년 사이에 컨텍스트 윈도우는 4K에서 1M으로 250배 늘었다. 다만 '광고된 크기'와 '실효적으로 쓸 수 있는 크기'는 다르다는 점은 짚어 둘 만하다. 1M 윈도우에 코드베이스 전체를 통째로 넣는 방식보다, 필요한 정보만 골라 200K 안에 정밀하게 채우는 방식이 결과물 품질에서 더 낫다는 보고가 2분기 들어 잇따르고 있다. 도구가 좋아진 만큼, '무엇을 넣을지'를 고르는 안목이 다시 중요해졌다는 뜻이다.

12-6. 한국어 사용자가 알아 둘 점

토큰은 언어별로 효율이 다르다. 영어 단어 'apple'은 1토큰이지만 한국어 '사과'는 2~3토큰으로 처리되는 식이다. 한국어 사용자에게 의미하는 바는 분명하다.

  • 같은 컨텍스트 윈도우라도 한국어로 채우면 분량은 영어의 1/3~1/2 수준이다.
  • API 비용도 한국어 쪽이 그만큼 더 든다. 토큰당 단가는 같지만, 같은 의미를 전달하는 데 토큰이 더 들어가기 때문이다.
  • 한국어 특화 모델(Solar, HyperCLOVA X 등)은 자체 토크나이저를 한국어에 맞춰 설계해 토큰 효율을 끌어올린 사례다. 글로벌 빅테크 모델 대비 같은 분량을 더 적은 토큰으로 처리할 수 있다.

요약하면, 컨텍스트 윈도우를 그대로 영어 단어 수와 페이지 수로 환산해 알리는 외산 자료를 한국어 작업에 그대로 적용하면 절반 수준으로 깎아서 봐야 실제와 맞는다. 200K 윈도우에 A4 500페이지짜리 영어 보고서를 한 번에 넣을 수는 있어도, 한국어로 같은 일을 하려면 100~150페이지 안팎이 한계라는 뜻이다.


🔍 2026년 AI 용어, 이것이 궁금하셨나요?

Q1. 1월 용어집과 비교해 2분기 업데이트의 핵심 변화는 무엇인가요?한 줄로 요약하면 "모델 어휘에서 운영 어휘로의 이동" 이다. 1월에는 에이전틱 AI, 고급 추론, 피지컬 AI 같은 '능력' 용어가 중심이었지만, 2분기에는 MCP, A2A, 오케스트레이션, 평가, 권한 관리처럼 '운영·연결' 용어가 주력이다. 가트너 자료 기준으로 멀티 에이전트 시스템 관련 문의가 1년 새 1,445% 늘어난 것이 이 흐름을 압축적으로 보여 준다.

Q2. MCP와 A2A 가운데 어느 쪽이 더 중요한가요?둘은 경쟁 관계가 아니라 보완 관계다. MCP는 에이전트와 외부 도구·데이터를 잇는 '수직 통합'을, A2A는 에이전트끼리 협업하는 '수평 통합'을 담당한다. 비유하자면 MCP는 작업자에게 공구를 쥐여 주는 것이고, A2A는 작업자들이 업무를 나누는 것이다. 한쪽만 있으면 반쪽짜리 에이전트 생태계가 된다.

Q3. SEO·GEO·AEO·LLMEO, 이 많은 용어 가운데 무엇부터 봐야 하나요?실무자 입장에서는 GEO를 우선순위에 두는 것이 합리적이다. AI Overview 도입 이후 클릭률이 30% 이상 떨어진 상황에서, 'AI 답변 안의 인용'을 확보하는 일이 새로운 가시성의 출발점이기 때문이다. AEO는 GEO의 하위 전술로, LLMEO는 모델별 정교화 단계로 이해하면 된다.

Q4. 에이전틱 AI가 좌석 기반 SaaS를 정말로 대체하나요?완전 대체보다는 단위의 변화로 보는 것이 정확하다. 시장에서는 '좌석 단위 사용권'이 '워크플로 결과 단위 보장(Work as a Service)'으로 일부 옮겨 가는 흐름이 관측된다. 다만 이 모델이 자리잡으려면 평가 체계, 로깅, 감사 — EU AI Act가 요구하는 항목들 — 도 함께 갖춰져야 한다. 2분기는 그 인프라가 깔리는 시기다.

Q5. 한국 기업과 미디어가 특히 주목해야 할 용어는 무엇인가요?세 가지를 꼽고 싶다. ① 소버린 AI — 자체 데이터와 인프라로 독립 AI를 갖추는 흐름은 한국 정책·산업계의 관심사와 곧장 맞닿는다. ② GEO/AEO — 콘텐츠 사업과 미디어 비즈니스 모델 자체에 영향을 주는 변수다. ③ RAMageddon — D램 수요 폭증은 한국 반도체 산업의 직접적 호재이자 변수다. 도안구 편집장이 추적해 온 SK하이닉스·삼성전자 제품군별 매출 데이터와 자연스럽게 연결되는 지점이다.

Q6. Opus 4.7의 200K 토큰이 한국어로는 정확히 얼마만큼인가요?어림으로 A4 100~150페이지, 단행본 한 권 정도라고 보면 된다. 영어 자료에는 보통 "200K = 약 500페이지"라고 적혀 있지만, 한국어는 같은 의미를 전달하는 데 토큰이 3~5배 더 들기 때문에 실제 가용 분량은 영어의 3분의 1~2분의 1 수준으로 줄어든다. API 비용도 한국어 쪽이 그만큼 더 든다는 점도 함께 알아 두면 좋다.


[부록] 2023년 매킨지가 설명한 AI 용어

API: (애플리케이션 프로그래밍 인터페이스)는 프로그래밍 방식으로 (대개 외부) 모델, 데이터 세트, 그밖의 소프트웨어에 접근하는 방법이다.

Artificial intelligence: 인공 지능(AI)은 본래 인간의 지능이 필요했던 작업을 수행하는 소프트웨어의 능력이다.

Deep learning: 딥 러닝은 머신 러닝의 하위 분야다. 학습할 수 있는 매개변수나 가중치가 있는 '뉴런' 계층을 연결한 심층 신경망을 사용한다. 특히 이미지, 텍스트, 오디오 같은 비정형 데이터에서 학습하는 데 효과적이다.

Fine-tuning: 미세 조정은 사전 학습된 기초 모델이 특정 작업에서 더 나은 성능을 내도록 다듬는 과정이다. 모델이 처음 학습한 데이터 세트보다 훨씬 작은, 레이블이 지정된 데이터 세트로 비교적 짧게 추가 학습한다. 이를 통해 모델은 작은 데이터 세트 안의 뉘앙스, 용어, 특정 패턴을 익히고 거기에 적응한다.

Foundation models: 기초 모델(FM)은 방대한 비정형·비레이블 데이터로 학습된 딥러닝 모델이다. 다양한 작업에 곧바로 쓰거나 미세 조정을 거쳐 특정 작업에 맞춘다. GPT-4, PaLM, DALL-E 2, Stable Diffusion 등이 그 예다.

Generative AI: 생성형 AI는 대체로 기초 모델을 바탕으로 만들어진다. 콘텐츠 생성처럼 이전 AI에는 없던 기능을 갖췄다. 기초 모델은 비생성적 목적(예: 통화 기록을 바탕으로 사용자 정서를 부정 또는 긍정으로 분류)에도 쓰이며, 이전 모델보다 성능이 크게 좋다. 이 글에서 생성형 AI를 언급할 때는 기초 모델의 모든 사용 사례를 포함한다.

Graphics processing units: 그래픽 처리 장치(GPU)는 본래 컴퓨터 그래픽(예: 비디오 게임)을 만들기 위해 개발된 컴퓨터 칩이지만, 딥 러닝 응용에도 유용하다. 이와 달리 기존의 머신 러닝과 그밖의 분석 작업은 보통 컴퓨터의 '프로세서'인 중앙 처리 장치(CPU)에서 돌아간다.

Large language models: 대규모 언어 모델(LLM)은 기초 모델의 한 부류다. 방대한 비정형 텍스트를 처리하며, 토큰이라 부르는 단어나 단어 일부 사이의 관계를 학습한다. 이를 통해 자연어 텍스트를 만들어 내고 요약이나 지식 추출 같은 작업도 수행한다. ChatGPT의 바탕이 된 GPT-4와 Bard의 바탕이 된 LaMDA가 LLM의 예다.

Machine learning: 머신 러닝(ML)은 AI의 하위 분야다. 모델이 많은 예제 데이터를 학습하거나 보면서 기능을 익힌다. 명시적인 프로그래밍 지시 없이도 데이터와 경험을 처리하며 패턴을 감지하고 예측·추천하는 법을 익힌다. 새로운 데이터와 경험에 맞춰 적응하면서 더 효과적으로 발전하기도 한다.

MLOps: AI와 ML을 확장하고 유지하기 위한 엔지니어링 패턴과 관행이다. ML 수명 주기 전체(데이터 관리, 개발, 배포, 라이브 운영)에 걸친 일련의 관행을 아우른다. 이런 관행은 작업을 표준화하고 단순화하며 자동화하는 지원 소프트웨어를 통해 구현되거나 최적화된다.

Prompt engineering: 프롬프트 엔지니어링은 입력 프롬프트를 설계하고 다듬으며 최적화해, 생성형 AI 모델이 원하는(즉 정확한) 출력을 만들어 내도록 안내하는 과정이다.

Structured data: 구조화된 데이터는 일부 머신 러닝 모델을 효과적으로 학습시키는 데 쓸 수 있는 표 형식의 데이터(테이블, 데이터베이스, 스프레드시트로 구성된 데이터)다.

Unstructured data: 비정형 데이터는 일관된 형식이나 구조가 없는 데이터다(텍스트, 이미지, 오디오 파일 등). 인사이트를 뽑아 내려면 대체로 더 고급 기술이 필요하다.


업데이트 이력

  • 2026-01-23: 초판 발행
  • 2026-05: 2분기 업데이트판 — 11장(에이전트 인프라·프로토콜·디자인 패턴·운영·검색 최적화·문화·거버넌스) 추가
  • 2026-05: 12장(토큰과 컨텍스트 윈도우) 추가 — 모델별 비교표, 페이지 환산, 한국어 토큰 효율 차이 정리