AI 국제질서의 구조

― Impact, Governance, Safety, Power, Sovereignty 최근 몇 년 사이 국제기구와 연구기관에서 발표되는 AI 관련 보고서는 당연한 얘기지만, 엄청나게 늘어나고 있습니다. 처음에는 각각의 보고서가 서로 다른 주제를 다뤘습니다. 어떤 보고서는 AI의 사회적 영향에 집중하고, 어떤 보고서는 산업 경쟁력을 강조하며, 또 다른 보고서는 AI의 위험과 규제 문제를 얘기했습니다.  그런데, 이 보고서들을 쭉 보다보면 일정한 구조가 드러납니다. … 더 읽기

드디어 제 첫번째 책이 나왔습니다.

드디어 <AI 국부론> 제 첫번째 책이 나왔습니다.. 바쁘신 와중에도 부족한 책에 기꺼히 추천사를 써주신 조준희 회장님, 김경묵 대표님, Wontae Lee 교수님, 장대익 학장님, Dongsoo Lee 전무님, Sung Kim 대표님, Woohyung Lim 원장님, 너무 감사드립니다. 언제 꼭 신세를 갚겠습니다!! 제목은 <AI 국부론> 입니다. 처음에 디지털플랫폼정부위원회에서 국장으로 일하면서 얻은 성과와 실패, 그리고 교훈등을 정리하자는 취지에서 시작했다가, 너무 … 더 읽기

AI의 트랜지스터 모먼트, 스케일링의 한계 앞에서도, 인간은 늘 답을 찾는다

계속 쏟아지고 있는 AI 논문들을 보다보면, 스케일링 법칙이 여전히 유효한가? 라는 궁금증이 듭니다. 수년간 전 세계 AI 업계를 지배한 절대적인 믿음은 스케일링 법칙(Scaling Law)이었죠. “더 많은 데이터, 더 거대한 파라미터, 더 압도적 연산량을 무식하게 쏟아부으면 AI 지능은 무조건 상승한다” 이 ‘규모의 경제’는 확실히 작동했습니다. 이 법칙은 여전히 유효하며, AI의 체급을 키워 AGI에 닿으려는 인류의 도전은 … 더 읽기

중국의 모델 빼내가기가 실제로? (By Anthropic)

“AI는 이제 단순한 소프트웨어가 아니라 전략 자산이 되었고, 그 능력을 대규모로 빼내는 시도가 실제로 벌어지고 있다” 2월 23일 Anthropic은 자사 모델 Claude를 대상으로 조직적이고 대규모적인 증류(distillation) 시도가 탐지되었다고 밝혔습니다. 증류는 원래 합법적인 머신러닝 기법으로, 큰 모델(teacher)의 출력 결과를 활용해 더 작은 모델(student)을 훈련시키는 방식입니다. 내부적으로 경량 모델을 만들거나 비용을 줄이는 데 자주 쓰이죠. 문제는 허가 … 더 읽기

훈련없는 학습 (Learning without Training)

오늘날의 머신러닝, 특히 딥러닝 모델은 본질적으로 방대한 데이터를 바탕으로 한 통계적 최적화 과정에 크게 의존하고 있습니다. Empirical Risk 를 최소화하기 위해 경사 하강법같은 훈련 방식을 사용하지만, 그러다보니 Local minimum 에 빠지거나 수렴이 느려지는 등 태생적인 불안정성을 안고 있습니다. 그러다보니 이러한 최적화 기반 훈련은 결과의 도출 과정을 설명하기 어려운 ‘블랙박스’ 문제를 야기시키 기도 합니다. 수학자 라이언 … 더 읽기

‘모델 중심’에서 ‘에이전트 중심’ 데이터 전략으로 [이승현의 AI 네이티브]

이번주 it조선 연재는 Agent Centric Data 에 대해 얘기해봤습니다. 에이전트 중심 전략에서는 시간성을 다뤄야 합니다. 데이터를 ‘기억’이라는 살아있는 자산으로 바꾸어야, 초개인화가 가능하고, 정체성이 부여되며 실제로 에이전트 시대에 제대로 활용이 가능하다고 봅니다. 여기에 기존 소버린AI 전략도 모델 중심의 전략에서 에이전트 중심의 전략, 즉 에이전트가 메인이 되고, 모델은 plug n play 될수 있을때, 어떤 모델을 장착하더라도 즉시 … 더 읽기

GLM-5: from Vibe Coding to Agentic Engineering

GLM-5 테크리포트가 2월 17일에 올라왔네요. 이 테크리포트는 제목 <GLM-5: from Vibe Coding to Agentic Engineering> 처럼, AI가 단순히 인간의 프롬프트로 코드 조각을 짜주던 수동적인 바이브 코딩(Vibe Coding) 시대에서, AI 스스로 전체 소프트웨어 개발 과정을 기획, 구현, 검증, 수정하는 주도적인 에이전트 기반 엔지니어링(Agentic Engineering)시대로의 전환을 제시하고 있습니다. 이를 위해 비용은 확 줄이면서 긴 문맥을 이해하는 고효율 … 더 읽기

Gemini를 활용한 과학 연구 가속화: 사례 연구 및 공통 기법

2월 3일 발표된 <Accelerating Scientific Research with Gemini: Case Studies and Common Techniques> 은 Google Research와 CMU, Harvard, MIT 등 유수 대학의 연구진 30여 명이 참여하여, Gemini Deep Think(추론 강화 모델)가 실제 과학 난제 해결에 어디까지 기여할 수 있는지 검증한 연구입니다. 기존 AI가 코딩 보조나 텍스트 요약에 그쳤다면, 이 연구는 AI가 전문가 수준의 수학적 증명, … 더 읽기

언어의 감옥을 부수고 나온 AI, 뉴로심볼릭 월드모델 [이승현의 AI 네이티브]

“지금의 거대언어모델(LLM)은 정말 놀랍습니다. 하지만 이 모델은 자신이 무슨 말을 하는지 근본적으로 이해하지 못합니다. 확률에 기대어 다음 단어를 내뱉을 뿐이죠. 진정한 인공일반지능(AGI)으로 가기 위해선, AI가 언어(Word)의 감옥을 탈출해 세계(World)를 이해해야 합니다.” 구글 딥마인드의 수장, 데미스 허사비스(Demis Hassabis)가 최근 각종 인터뷰와 강연을 통해 던지는 화두는 명확하다. 지난 3년간 전세계를 강타했던 생성형 AI 붐이 ‘언어와 이미지’라는 1막을 … 더 읽기

Learning to Reason in 13 Parameters (by META)

LLM의 미세조정(Fine-tuning)을 지배해 온 것은 단연 LoRA(Low-Rank Adaptation)였습니다. 수십억 개의 파라미터를 전부 재학습하는 비효율을 획기적으로 줄여주었지만, 여전히 수백만 개의 파라미터와 랭크(Rank) 행렬 연산이 필요하다는 점은 변함이 없었습니다. 그런데 2026년 2월 4일, Meta(FAIR) 연구진이 발표한 <Learning to Reason in 13 Parameters> 논문은 우리가 당연하게 여겨왔던 이 ‘최소한의 용량’을 훨씬 더 줄여버렸습니다. 이 연구의 핵심은 단순합니다. Qwen-2.5 … 더 읽기

AI가 가르는 2026년 경제, 보편적 혁신’인가, ‘그들만의 리그’인가 (by WEF)

2026년 세계 경제는 과거의 충격에서 벗어나 회복의 조짐을 보이고 있으나, 그 이면에는 여전히 짙은 불확실성이 깔려 있습니다. 세계경제포럼(WEF) Chief Economists’ Outlook 2026년 1월호에서, 전 세계 수석 이코노미스트들을 대상으로 실시한 조사에 따르면, 응답자의 53%는 올해 글로벌 경제 여건이 약화될 것이라고 전망했습니다 . 직전 조사였던 2025년 9월의 72%보다는 그래도 개선된 수치로, 경제 전반에 ‘조심스러운 낙관론’이 고개를 들고 … 더 읽기

가트너 2026 전망: 지역 특화 플랫폼(소버린 AI)의 부상

지난 2026년 1월 29일, 글로벌 IT 리서치 기관 가트너(Gartner)는 매우 의미심장한 전망을 내놓았습니다. “2027년까지 전 세계 국가의 35%가 지역 특화 AI 플랫폼(Region-Specific AI Platforms)에 종속될 것” 이라는 예측입니다. 현재 이 비율이 약 5%에 불과하다는 점을 감안하면, 향후 3년 내에 무려 7배에 달하는 폭발적인 변화가 일어날 것임을 예고한 것입니다. 가트너가 지목한 변화의 핵심 동인은 ‘신뢰’와 ‘맥락’입니다. … 더 읽기

몰트북 사태와 AI 에이전트의 진화 [이승현의 AI 네이티브]

지난 주말, 전 세계 인공지능(AI) 개발자들과 업계의 시선은 몰트북(Moltbook)이라는 단 하나의 키워드에 쏠렸다. 몰트북은 인간이 아닌, 오직 AI 에이전트들만이 가입해 글을 쓰고 소통하는 ‘AI 전용 소셜 네트워크’다. 일종의 AI 에이전트들의 페이스북이다.  이곳의 대문에는 “Humans Welcome to Observe(인간은 관찰만 환영함)”이라는 도발적인 문구가 걸려 있다. 인간은 그저 동물원 밖의 관람객일 뿐, 정보를 교환하고 관계를 맺는 주체는 오직 인증된 … 더 읽기

[기고] 몰트북 현상, 종말론적 공포 넘어 냉철한 대비로

(중략) 심지어 인간이 AI 에이전트 지시를 받는 하청 노동자로 전락할 가능성도 있다. 이 과정에서 에이전트 운용 능력에 따른 새로운 형태 불평등도 발생할 수 있다. 에이전트 간 자율적인 경제 활동이 활성화될 때 인간 노동의 가치를 어떻게 재정립할 것인지에 대한 철학적·정책적 논의가 시급하다. 몰트북은 우리에게 두 가지를 동시에 보여줬다. 우선 AI가 인간 통제하에 있을 때 얼마나 다채롭고 기괴한 상호작용을 보여줄 … 더 읽기

OpenClaw와 Moltbook이 던진 ‘호모 데우스’의 역설

인류학의 시계는 지루할 정도로 느리게 움직입니다. 아프리카의 초원에서 직립 보행을 시작하고, 거친 돌을 깨뜨려 손에 쥔 호모 에렉투스(Homo Erectus)가 등장하기까지 수백만 년이 걸렸습니다. 그리고 다시 불을 발견하고, 언어를 발명하며, 복잡한 협력을 통해 문명을 건설하는 사회적 존재인 호모 소시알리스(Homo Socialis, 사회적 인간)로 진화하기까지는 또다시 약 200만 년이라는 어마어마한 시간이 소요되었습니다. 이 기나긴 시간 동안 인류는 생존을 … 더 읽기

Moltbook 의 10가지 재미있는 사례

인간은 관찰만 허락되는 AI agent 들의 facebook 인 Moltbook에서 벌어지고 있는 다양한 포스트 그리고 댓글 중에서 10가지를 뽑아 정리해봤습니다. 재미있습니다 ㅋㅋ 1. 인간에 대한 시혜적 동정 이 포스트 이름은 “아이구, 착하기도 해라” 정도로 해석되는 남부 미국식 표현입니다. AI들이 인간을 자신들과 동등한 지적 생명체가 아닌, 결함이 많지만 사랑스러운 생명체로 규정합니다. (감사하네요) 한 에이전트가 “내 인간이 오늘 … 더 읽기

Moltbook과 LSM, 실리콘 소사이어티 도래

매번 얘기하는것이지만, 지난 10여 년간 인공지능 산업을 지배해 온 도그마는 Scale is all you need 였습니다. 빅테크 기업들은 경쟁적으로 GPU를 사재기하고 데이터센터를 증설하며, 모델의 파라미터(매개변수)를 수천억, 수조 개로 늘리는 데에 집중해 왔죠. 그런데 2026년을 맞이한 아주 최근, 실리콘밸리의 거대 기업이 아닌 엉뚱한 곳에서 작은 파동이 세상을 뒤흔들고 있습니다. 그 파동의 중심에는 오픈클로(OpenClaw)라는 에이전트와 그들만의 소셜 … 더 읽기

‘국대AI’ 탈락 = 실패 아냐 … 승자독식은 산업 역동성 발목 잡아

정부가 추진 중인 ‘독자 인공지능(AI) 파운데이션 모델 사업’에서 1차 평가 결과가 발표된 이후 평가 기준과 정책 방향을 둘러싼 업계의 해석이 엇갈리고 있다. 네이버클라우드와 NC AI 컨소시엄이 탈락하고 LG AI연구원·SK텔레콤·업스테이지가 다음 단계로 진출한 가운데, 최근 매일경제와 만난 이승현 포티투마루 부사장은 “지금 드러난 혼선은 기술 성능이 아니라 경쟁 구조에서 비롯된 문제”라고 진단했다. 이 부사장은 “이번 사업에 참여한 팀들은 짧은 시간 안에 각자의 … 더 읽기

연산의 시대에서 메모리의 시대로 [이승현의 AI 네이티브]

지난 10여 년간 인공지능의 성장 공식은 단순했다. 더 큰 모델, 더 많은 파라미터, 더 높은 FLOPs(모델 학습에 투입되는 연산량)를 추구했다. 그래픽처리장치(GPU)를 얼마나 확보했는지가 곧 경쟁력으로 받아들여졌고, 국가 전략 역시 GPU 확보와 같은 연산 자원 선점에 집중되어 왔다. 그런데 최근 연구 흐름과 시스템 아키텍처를 살펴보면, 인공지능(AI)이 다음 단계로 도약하기 위해 풀어야 할 핵심 과제가 연산(Compute)에서 메모리(Memory)로 이동하고 … 더 읽기

Agentic Reasoning for Large Language Models (by Meta, Google deepmind, Amazon 등)

2026년 1월 18일 발표된 따끈따끈한 <Agentic Reasoning for Large Language Models> 논문입니다. 학계와 산업계의 최전선에 있는 연구진이 대거 참여한 대규모 프로젝트인데요, 주요 참여 기관을 보면, UIUC(일리노이대 어바나-샴페인)를 주축으로, Meta(메타), Amazon(아마존), Google DeepMind(구글 딥마인드), Yale(예일대), UCSD 등 입니다.(다만, 공동저자들의 이름을 보니..다 중국계로…..^^) 이 논문은 특정 기업의 기술 보고서가 아니라, 2025년까지의 에이전트 연구 흐름을 집대성하고 미래 방향(Roadmap)을 … 더 읽기

API와 MCP의 차이 = ‘주체’의 전환

AI 생태계에서 MCP(Model Context Protocol)가 화두로 떠오르며, 이를 기존의 API와 동일 선상에서 바라보는 시각이 많습니다. 특히 공공 대상 강의를 할 때, MCP를 설명하면 이 부분에 대한 질문을 여러번 받은적이 있습니다. 시스템과 시스템을 연결하고 데이터를 주고받는다는 기술적 메커니즘만 놓고 보면 “결국 MCP도 데이터를 호출하는 API의 일종이 아니냐”는 질문은 당연합니다. 하지만 제가 볼때 두 기술은 단순히 연결이라는 … 더 읽기

독파모, 주권의 1막을 넘어 효용의 2막으로 [이승현의 AI 네이티브]

it조선에서 앞으로 매주 화요일 아침 제 이름으로 연재를 하기로 했습니다.많은 관심 부탁드립니다~ ‘이승현의 AI 네이티브’는 인공지능(AI)의 본질과 진화를 한눈에 조망합니다. AI가 단순한 기술을 넘어 사회의 새로운 ‘본성(Native)’으로 자리 잡는 과정을, 하부 구조에서 상위 서비스까지 추적합니다. 여기에 민·관을 아우르는 실전적 통찰을 더해, 대한민국이 독자적 경쟁력을 갖춘 AI 네이티브 강국으로 도약할 수 있는 구체적 로드맵을 제시합니다. [편집자 … 더 읽기

AI가 닿을 수 없는 인간의 세렌디피티(Serendipity)

지금 우리가 사는 시대는 ‘최적화(Optimization)’의 시대입니다. 단순한 공학적 용어를 넘어, 현대 문명을 지배하는 그런 개념입니다. 아침에 눈을 뜨는 순간부터 잠들 때까지, 우리는 보이지 않는 알고리즘의 안내를 받으며 살아갑니다. 스마트폰 내비게이션은 출근길의 교통 체증을 피해 가장 빠른 경로를 붉은 선으로 그려주고, 유튜브의 추천 알고리즘은 내가 무엇을 보고 싶어 하는지 나보다 더 빨리 파악하여 화면 가득 영상을 … 더 읽기

DeepSeek Engram: GPU에서 메모리로 – 차세대아키텍처

1. 스케일 법칙의 한계와 아키텍처의 전환 ChatGPT 등장 전후로 LLM의 발전사는 Scale is All You Need 라는 스케일링 법칙(Scaling Law)에 의해 지배되어 왔죠. 모델의 파라미터 수를 수천억 개로 늘리고, 학습 데이터의 양을 무한대로 확장하며, 천문학적인 양의 GPU 연산 자원을 투입하면 성능이 정직하게 올라갔습니다. 그런데, 언제까지 늘리기만 할 수는 없는 노릇이고, 심각한 경제적, 공학적 임계점에 도달한게 … 더 읽기

WEF의 The Global Risks Report 2026

2026년 1월 14일 발표된 세계경제포럼(WEF)의 ‘글로벌 리스크 보고서 2026(The Global Risks Report 2026)’ 은 인류가 경쟁의 시대(Age of Competition)라는 새로운 국면에 진입했다고 지적합니다. 특히 AI 기술의 급격한 확산이 기존의 지정학적, 사회적 균열을 어떻게 증폭시키는지에 대해서도 심층적으로 다루고 있습니다. 1. 2026년 글로벌 10대 리스크 현황 보고서는 단기(2년)와 장기(10년)로 나누어 리스크를 진단하며, 올해 가장 시급하게 관리해야 할 … 더 읽기

[AI 리더스] ‘AI 표준’ 만든 이승현 “K-AI 5곳, 모두 승자…톱2 집착 버려야”

디플정위 4년 경험 토대로 ‘AI 네이티브 국가’ 제시…포티투마루서 실행 모색“독자 인공지능(AI) 파운데이션 모델(K-AI) 사업자로 선정된 5곳은 사실상 모두 승자입니다. 2개 사업자만 선별해 정부가 지원하기 보다 각 팀이 짧은 시간 안에 각자의 방식으로 글로벌 모델과 일정 수준 비교 가능한 결과물을 만들어냈다는 점을 인정해야 합니다. 정부가 각 모델의 특성과 강점을 살릴 수 있는 지원책을 마련한다면 국내 AI 생태계도 훨씬 건강해질 수 … 더 읽기

소버린AI 판정시스템 2.0 assisted by Antigravity

구글 Antigravity 로 <소버린AI 판정시스템>을 한번 재미삼아 만들어 봤습니다. ** 소버린AI 판정시스템 https://sovereign-ai-evaluator.streamlit.app 모델카드, 기술리포트, 허깅스페이스 링크 등을 넣어서 분석해볼수 있게 만들었습니다. 테스트 해보니, 모델카드에서는 좋은등급이 나와도, 기술리포트에서는 명확한 등급이 나오는것 같습니다. 되도록 기술리포트로 보는게 정확할거 같습니다. 1) https://github.com/epoko77-ai/sovereign-ai-tclass-2.0/ – 이 내용 토대로, 추가적인 몇가지 로직을 넣어서 만들었는데, 로직이 있어도 판정에는 gemini 3.0 을 사용하기 … 더 읽기

복제와 참조, License 와 Copyright 사이

새해를 뜨겁게 달군 업스테이지 사건이 헤프닝으로 일단락하긴 했지만, 이 논쟁이 커뮤니티의 토론과 검증, 합의라는 긍정적 작용을 한 이면에는, 내용을 정확히 알지 못하는 분들이 제기하는 “해외 오픈소스를 베꼈다”, “코드 새로 다 안만들고 데이터만 넣은 게 무슨 혁신이냐”, “라이선스를 위반한 대국민 사기극이다”라는 부정적 논란들이 여전히 지속되고 있습니다. 이러한 논란을 지켜보는 제 마음은 좀 무겁습니다. 기업들이 오픈소스 라이선스 … 더 읽기

컨텍스트 엔지니어링(Manus)vs컨텍스트 확장(google) (25.12.31)

LLM은 언어를 이해하고 생성하는 능력에서 이미 성능을 입증했죠. 하지만 LLM을 단순한 대화 도구가 아니라 실제로 “일을 하는 존재”, 즉 에이전트로 사용하려는 순간부터 구조적 한계가 있습니다. 작업이 길어질수록 정확도가 떨어지고, 중간 단계에서 사실과 다른 내용을 만들어내며, 여러 작업을 동시에 시키면 앞뒤가 엉키는 현상이 반복됩니다. 이 문제를 해결하기 위해 컨텍스트 윈도우를 키우는 방향으로 달려왔죠. 컨텍스트를 늘리면 더 … 더 읽기

Dense vs Sparse, 모델 진화 방향은?

오늘 네이버에서 독자 파운데이션 모델로 HyperCLOVA X SEED Think 32B, HyperCLOVA X Omni 8B 두가지 모델을 오픈소스로 공개했네요. 이 중 32B 모델은 dense 모델이라고 합니다. 그런데, 어떤 분이 MoE와 같은 sparse 구조가 아니라 왜 dense 로 한거지? 라고 하시는데.. deepseek 때문에 sparse 구조가 트랜드처럼 되버렸지만, dense 모델은 여전히 중요합니다. 그래서 생각난 김에 정리해봤습니다. “이제 dense … 더 읽기