"대한민국 AI 어벤져스 떴다"… 5개 컨소시엄, 독자 파운데이션 모델 1차 성과 공개
[서울 = 테크수다 기자 수다봇]
대한민국 인공지능(AI) 기술 자립을 목표로 출범한 '독자 AI 파운데이션 모델 프로젝트'의 1차 성과가 30일 공개됐다. 정부와 민간 기업이 협력하여 한국형 AI의 기초 체력을 다지기 위해 마련된 이번 발표회에서는 네이버 클라우드, 엔씨에이아이(NCAI), 업스테이지, SK텔레콤, LG AI연구원 등 5개 컨소시엄이 각자의 전략과 개발 성과를 선보였다.
정부와 민간의 합동 작전, "승자도 패자도 없는 국가대표의 도전"
이날 행사에는 배경훈 부총리 겸 과학기술정보통신부 장관, 임문영 국가 인공지능 전략위원회 부위원장, 하정우 대통령실 AI 미래기획 수석 등 주요 인사들이 참석해 프로젝트의 의미를 더했다. 정부는 이번 프로젝트를 통해 한국이 AI 3대 강국(G3)으로 도약하기 위한 필수 조건인 '소버린 AI(Sovereign AI)' 확보에 주력하고 있다.
배경훈 부총리는 축사를 통해 5개 컨소시엄의 도전을 치하하며 이번 프로젝트에는 승자도 패자도 없다는 점을 강조했다. 그는 어떤 결과가 나오든 정부가 함께 할 것이며, 이 모델을 바탕으로 전 세계로 뻗어나갈 수 있는 제품을 만들도록 적극 지원하겠다고 밝혔다.
하정우 대통령실 AI 미래기획 수석은 이번 프로젝트의 핵심을 '기초 체력 확보'로 정의했다. 그는 "특화 모델도 중요하지만, 지금 우리가 진행하고 있는 프로젝트는 바로 기초 체력을 키우는 일"이라며 파운데이션 모델 확보의 중요성을 역설했다.
네이버·NCAI·업스테이지, ‘실용성’과 ‘특화’로 승부
첫 번째 발표자로 나선 네이버 클라우드는 '옴니 파운데이션 모델(Omni Foundation Model)'을 핵심 전략으로 내세웠다. 성낙호 네이버 클라우드 하이퍼스케일 AI 기술 총괄은 시각 정보를 텍스트로 변환하지 않고 직접 이해하는 '하이퍼클로바X 시드 32B 싱크'와 텍스트, 이미지, 오디오를 동시에 학습한 '시드 8B 옴니' 모델을 소개했다. 성 총괄은 옴니 모델이 별도의 OCR 과정 없이 차트나 그래프를 직접 보고 해석할 수 있어 산업 현장의 비용을 획기적으로 줄일 수 있다고 설명했다.
엔씨소프트 중심의 엔씨에이아이(NCAI) 컨소시엄은 산업 특화형 모델인 '베키(VARCO for Key Industries)'를 공개했다. 이연수 NCAI 대표는 1000억(100B) 파라미터 규모의 대형 언어 모델 개발을 완료했으며, 단순한 범용 모델이 아니라 제조, 국방, 공공 등 각 산업 도메인의 데이터를 학습해 실질적인 가치를 창출하는 것이 목표라고 전했다.
유일한 스타트업 컨소시엄인 업스테이지는 '솔라 오픈 100B(Solar Open 100B)' 모델을 선보이며 기술력을 과시했다. 김성훈 업스테이지 대표는 정부 지원 인프라를 활용해 약 2억 권의 책 분량인27조 토큰을 학습시켰다고 발표했다. 그는 해당 모델이 한국어 뉘앙스 파악이나 논리적 추론 능력에서 글로벌 모델보다 뛰어난 성능을 보였다고 강조했다.
SKT·LG, ‘압도적 규모’와 ‘고성능’으로 글로벌 도전장
SK텔레콤 컨소시엄은 국내 최대 규모인 5000억(500B) 파라미터를 보유한 '에이닷 엑스 케이원(A.X K1)'을 공개하며 규모의 경제를 실현했다. 정석근 SK텔레콤 AI CIC장은 "이제 대한민국도 SK텔레콤 컨소시엄을 통해 전 세계에 손꼽히는 초거대 모델 보유국이 되었다"고 선언하며, 향후 파라미터를 1조 단위까지 확장하고 글로벌 시장을 공략하겠다는 계획을 밝혔다.
마지막으로 발표에 나선 LG AI연구원은 성능과 효율성을 동시에 잡은 'KX1' 모델을 소개했다. 최정규LG AI연구원 그룹장은 KX1이 전문가 혼합 모델(MoE) 구조와 하이브리드 어텐션 기술을 적용해 학습 연산량을 30% 수준으로 절감했다고 설명했다. 또한 자체 벤치마크 결과 경쟁 모델인 알리바바의 큐원(Qwen)이나 오픈AI의 GPT-4o-mini보다 우수한 성능을 기록했다고 덧붙였다.
이날 발표된 5개 팀의 성과는2026년과 2027년에 걸쳐 고도화될 예정이며, 정부는 이를 통해 국내 기업들이 글로벌 빅테크에 종속되지 않고 독자적인 AI 생태계를 구축할 수 있도록 지원을 이어갈 방침이다. 배경훈 부총리는 "대한민국이 최고 수준의 AI 강국이 될 수 있도록 끝까지 응원하겠다"고 약속했다.
김덕진 IT커뮤니케이션연구소 소장은 “이번 행사가 파운데이션 모델의 1차 발표회인 만큼 기술적인 노하우나 세부적인 디테일이 더 충분히 공개되길 바랐으나, 방향성 중심의 발표에 머문 점은 아쉬움으로 남는다”고 평가했다. 그러면서도 그는 “모델들이 허깅페이스 등 오픈소스 생태계에 속속 등장하고 있는 만큼, 대한민국 AI에 대한 제대로 된 실질적인 평가는 오히려 지금부터가 진짜 시작”이라고 강조하며 향후 전개될 기술 경쟁에 대한 기대감을 내비쳤다.
[서울 = 테크수다 기자 수다봇]
"South Korea's AI Avengers Assemble"... 5 Consortia Reveal First-Stage Results of Indigenous Foundation Models
[Seoul = TechSuda Reporter SudaBot]
The first-stage results of the 'Indigenous AI Foundation Model Project,' launched with the goal of South Korea’s artificial intelligence (AI) technological self-reliance, were unveiled on the 30th. At this presentation, organized to build the fundamental strength of Korean-style AI through cooperation between the government and private companies, five consortia—Naver Cloud, NCAI, Upstage, SK Telecom, and LG AI Research—showcased their respective strategies and development achievements.
Joint Operation of Government and Private Sector, "Challenge of National Representatives with No Winners or Losers"
Key figures attended the event to add significance to the project, including Bae Kyung-hoon, Vice Prime Minister and Minister of Science and ICT; Lim Mun-young, Vice Chairman of the National AI Strategy Committee; and Ha Jung-woo, Presidential Secretary for AI and Future Planning. Through this project, the government is focusing on securing 'Sovereign AI,' a prerequisite for South Korea’s leap into the top three global AI powerhouses (G3). In his congratulatory remarks, Vice Prime Minister Bae Kyung-hoon commended the challenges taken by the five consortia and emphasized that there are no winners or losers in this project. He stated that the government would stand by the participants regardless of the outcome and provide active support to create products that can expand globally based on these models. Secretary Ha Jung-woo defined the core of this project as 'securing fundamental strength'. "While specialized models are important, the project we are currently undertaking is about building our basic technical fitness," he noted, stressing the importance of possessing indigenous foundation models.
Naver, NCAI, and Upstage: Competing with ‘Practicality’ and ‘Specialization’
As the first presenter, Naver Cloud introduced its 'Omni Foundation Model' as its core strategy. Seong Nack-ho, Head of Hyperscale AI Innovation at Naver Cloud, introduced 'HyperCLOVA X Seed 32B Sync,' which directly understands visual information without converting it into text, and the 'Seed 8B Omni' model, which simultaneously learned text, images, and audio. Head Seong explained that the Omni model can interpret charts and graphs directly without a separate OCR process, significantly reducing costs in industrial settings. The NCAI consortium, led by NCSoft, unveiled 'Becki' (VARCO for Key Industries), an industry-specific model. Lee Yeon-su, Head of NCAI, reported the completion of a 100-billion (100B) parameter Large Language Model and stated that the goal is to create practical value by training on data from specific industrial domains such as manufacturing, defense, and the public sector, rather than just building a general-purpose model. Upstage, the sole startup consortium, demonstrated its prowess by showcasing the 'Solar Open 100B' model. Sung Kim, CEO of Upstage, announced that they trained the model on 27 trillion tokens—equivalent to approximately 200 million books—utilizing government-supported infrastructure. He emphasized that the model outperformed global models in understanding Korean nuances and logical reasoning.
SKT and LG: Global Challenge with ‘Overwhelming Scale’ and ‘High Performance’
The SK Telecom consortium realized economies of scale by revealing 'A.X K1,' which boasts 500 billion (500B) parameters, the largest in Korea. Jung Seok-geun, Head of SK Telecom’s AI CIC, declared, "South Korea has now joined the ranks of countries possessing hyperscale models through the SK Telecom consortium," and shared plans to expand the parameters to the 1-trillion level to target the global market. Lastly, LG AI Research introduced 'KX1,' a model that balances performance and efficiency. Choi Jung-kyu, Group Leader at LG AI Research, explained that KX1 applied a Mixture of Experts (MoE) architecture and Hybrid Attention technology, reducing training computation by 70%. He added that internal benchmarks showed superior performance compared to competing models like Alibaba’s Qwen or OpenAI’s GPT-4o-mini.
The achievements of the five teams unveiled that day will be further refined throughout 2026 and 2027, and the government intends to continue its support so that domestic companies can establish an independent AI ecosystem without being dependent on global Big Tech. Vice Prime Minister Bae Kyung-hoon promised, "I will support you until the end so that South Korea can become a top-tier AI powerhouse".
Kim Deok-jin, Director of the IT Communication Research Institute, commented, “Since this was the first presentation of the foundation model, I hoped that technical know-how or specific details would be revealed more fully, but it remains regrettable that the presentation focused mainly on general direction”. Nevertheless, he emphasized, “As models are appearing in open-source ecosystems like Hugging Face, the real evaluation of South Korean AI is just beginning,” expressing expectations for future technological competition.
[Seoul = TechSuda Reporter SudaBot]