LLM : MOTION STUDY
ABOUT / MODEL
// language as interface · probability as engine
SCROLL TO DECODE
00 : 00
FROM N-GRAM TO AGENTIC SYSTEMS

现代大语言模型

一句话:大语言模型不是“懂人类”的机器,而是把海量文本、代码和反馈压缩进参数后,用概率预测下一个 token 的通用接口。它的力量来自规模、训练范式和工具连接;它的危险来自幻觉、不可解释、成本和权力集中。

01 / PAST

过去:从规则,到统计,再到深度学习。

LLM 不是突然出现。它是 70 年语言处理路线的结果:先让人写规则,后来让机器数频率,最后让神经网络自己学表示。

1950s–1980s

符号主义:人写规则

机器翻译、语法树、专家系统。核心假设:语言可以被显式规则描述。问题:现实语言太脏、太多例外、维护成本爆炸。

优点:可解释。失败点:规模化差。
1990s–2000s

统计 NLP:机器数概率

N-gram、隐马尔可夫、统计机器翻译。系统开始从数据中学习“哪个词更可能跟着哪个词”。问题:上下文短,理解浅。

优点:可工程化。失败点:长程依赖弱。
2013–2017

词向量与序列模型:意义变成坐标

Word2Vec、RNN、LSTM、Seq2Seq。词不再是孤立符号,而是高维空间中的位置。问题:训练慢,长文本记忆仍然吃力。

关键变化:语义被向量化。
2017

Transformer:注意力成为主干

《Attention Is All You Need》把序列处理从逐字递归改为并行注意力。模型能在一段上下文里直接计算 token 之间的关系。

真正拐点:可扩展。
2018–2022

预训练 + 微调:通用语言底座出现

BERT、GPT、T5 等模型证明:先在大规模语料上做通用训练,再适配具体任务,比为每个任务单独造系统更有效。

范式迁移:任务模型 → 基座模型。
02 / MECHANISM

它怎么工作:极简版,但不糊弄。

LLM 的本质可以压缩成四层:token 化、Transformer、训练目标、对齐。别神化,也别低估。

核心公式

给定上下文 C,模型计算:
P(next token | C)

不断重复这个动作:
C → token₁ → token₂ → token₃ → ...

表面上是写文章;底层是条件概率采样。

看起来像推理,是因为训练数据里包含大量推理痕迹;看起来像知识,是因为参数压缩了大量世界文本;看起来像人格,是因为对话格式诱导出稳定语气。

Token文本被切成子词/字符片段。模型看到的不是“中文意义”,而是一串离散编号。
Attention每个 token 根据上下文决定该“看”哪些 token。长程关系由注意力权重传播。
Pretrain在海量语料中学习语言、事实、代码、风格和隐含结构。
SFT / RLHF用人工示范和偏好反馈,把基座模型调成能对话、能遵守指令、少乱来的助手。
Inference运行时根据 prompt、上下文窗口、采样参数和工具结果生成输出。
03 / PRESENT

现状:LLM 已经不是聊天框,而是操作系统接口。

2024–2026 的关键变化:模型从“会说”走向“会看、会写代码、会用工具、会长时间执行任务”。真正的竞争点从单次回答转向系统能力。

CAPABILITY

多模态

文本、图片、音频、视频、屏幕操作逐步合并。模型不再只处理语言,而是把世界转成统一 token/embedding 空间。

ENGINEERING

工具调用

模型本身不可靠地“知道一切”,但可以调用搜索、代码执行、数据库、API、浏览器。可靠性来自外部验证闭环。

PRODUCT

Agent

从一次问答变成多步任务:规划、执行、观察、修正。难点不是“想计划”,而是长期稳定、不乱动、可追责。

INFRA

上下文窗口

长上下文让模型能读仓库、合同、研究材料。但长不等于会用;检索、摘要、记忆压缩仍然关键。

MARKET

开源与闭源

闭源领先综合体验,开源追赶部署自由。企业会混用:敏感数据本地,小任务云端,高价值任务专用模型。

LIMIT

幻觉仍在

LLM 原生目标不是“真”,而是“像”。凡是涉及事实、计算、法律、医疗、金融,都必须接验证工具和责任边界。

04 / FUTURE

未来:不是一个超级聊天机器人,而是一层智能基础设施。

更现实的未来不是“模型突然全知全能”,而是模型被嵌入软件、组织和机器,成为新的人机接口层。

01

更小,更专用

大模型做通用推理,小模型做本地、低延迟、低成本任务。端侧模型会吃掉大量日常操作。

02

长期记忆

真正的个人 AI 需要稳定记忆、偏好、历史任务和权限系统。记忆不是聊天记录,而是结构化个人操作层。

03

可验证推理

未来的可靠系统会把“生成”和“验证”分离:模型提出,工具检查,环境反馈,审计记录留痕。

04

组织自动化

公司会把流程拆成 agent workflow:客服、法务初筛、代码维护、投研、BI、供应链监控。人类转向监督和决策。

05

机器人入口

当多模态模型接入动作空间,语言会变成机器人控制层。但物理世界容错低,进展会比软件慢。

06

权力集中

算力、数据、芯片、分发渠道会决定谁拥有模型能力。AI 不是单纯技术问题,也是产业权力问题。

07

内容污染

AI 生成内容会反过来污染训练语料。高质量人类数据、真实交互数据、私有数据会变得更稀缺。

08

人类技能重定价

重复表达、普通写作、初级代码贬值;问题定义、审美、判断、数据、分发、信任变贵。

05 / MAP

一张极简地图:理解 LLM,只抓住这 12 个点。

技术层

  • Token:语言被拆成模型可处理的编号。
  • Transformer:用注意力建模上下文关系。
  • 参数:训练后形成的压缩知识与能力。
  • 上下文:运行时的临时工作记忆。
  • 采样:输出不是检索答案,而是概率生成。
  • 对齐:让模型更像“助手”,不是更接近真理本身。

现实层

  • 能力来自规模,但规模不是唯一答案。
  • 幻觉是结构性问题,不能靠语气解决。
  • 工具调用把模型从“说”变成“做”。
  • Agent 的核心是闭环:计划、执行、观察、纠错。
  • 私有数据和工作流比 prompt 更重要。
  • 未来赢家不是会聊天的人,而是会搭系统的人。
LLM 的本质:语言接口 + 概率引擎 + 外部工具
不要崇拜它。把它接进系统,给它边界,然后榨干它。
END OF MODEL BRIEF / designed in lusiongemini style / dark WebGL-like HUD experience