header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
扫码下载APP

币圈人补课AI:30个高频黑话,一次讲清

阅读本文需 10 分钟
30个新词,留点印象,让小白聚会聊天时不再尴尬点头微笑。
原文标题:《AI 黑话词典(2026 年 3 月版),建议收藏》
原文作者:Golem,Odaily 星球日报


现在,币圈人要是不关注 AI,很容易遭群嘲(对,我的朋友,想想你为啥会点进来)。


你是否对 AI 的基础概念一窍不通,每句话里的缩写都问下豆包啥意思啊?你又是否在 AI 线下活动中对各种专有名词一头雾水,还要假装没掉线?


虽然在短时间内一脚跨入 AI 行业不现实,但知道下 AI 行业高频基础词汇总是不亏的。幸运了,接下来这篇文章就是为你准备的↓真诚建议你熟读并收藏。


基础词汇(12)


· LLM(大语言模型)


LLM 核心是用海量数据训练出来、擅长理解和生成语言的深度学习模型,它能处理文本,现在也越来越能处理其他类型内容。


与之相对的是 SLM(小语言模型)——通常强调成本更低、部署更轻、本地化更方便的语言模型。


· AI Agent(AI 智能体)


AI Agent 指的不只是「会聊天的模型」,而是能理解目标、调用工具、分步执行任务、必要时还能做规划和验证的系统。Google 将 agent 定义为能基于多模态输入进行推理并代用户执行动作的软件。


· Multimodal(多模态)


其 AI 模型不是只读文字,而是能同时处理文本、图片、音频、视频等多种输入输出形式。Google 明确把多模态定义为处理和生成不同类型内容的能力。


· Prompt(提示词)


用户给模型输入的指令,是最基础的人机交互方式。


· Generative AI(生成式 AI / AIGC)


强调 AI「生成」而不是单纯分类或预测,生成式模型可以根据 prompt 生成文本、代码、图像、表情包、视频等内容。


· Token(令牌)


这是 AI 圈最像「Gas 单位」的概念之一。模型不是按「字数」理解内容,而是按 token 处理输入输出,计费、上下文长度、响应速度,通常都和 token 强相关。


· Context Window(上下文窗口 / 上下文长度)


指模型一次性能「看到」和利用的 token 总量,也可称为模型在单次处理时能考虑或「记住」的 token 数量。


· Memory(记忆)


让模型或 Agent 保留用户偏好、任务上下文、历史状态。


· Training(训练)


模型从数据中学习参数的过程。


· Inference(推理执行)


和训练相对,指模型上线后接收输入并生成输出的过程。行业里常说「训练很贵,推理更费钱」,因为真实商业化阶段很多成本发生在 inference。相关训练/推理区分也是主流厂商讨论部署成本时的基础框架。


· Tool Use / Tool Calling(工具调用)


意思是模型不只输出文字,而是可以去调用搜索、代码执行、数据库、外部 API 等工具,这已经被当成 Agent 的关键能力之一。


·API(接口)


AI 产品、应用、Agent 接第三方服务时的基础设施。


进阶词汇(18)


· transformer(变换器架构)


一种让 AI 更擅长理解上下文关系的模型架构,也是今天大多数大语言模型的技术底座,最大的特点是能同时看整段内容里每个词和其他词的关系。


· Attention(注意力机制)


它是 Transformer 最关键的核心机制,作用就是让模型在读一句话时,自动判断「哪些词最值得重点看」。


· Agentic / Agentic Workflow(智能体式 / Agent 化工作流)


这是最近很热的说法,意思是一个系统不再只是「一问一答」,而是带有一定自主性地拆解任务、决定下一步、调用外部能力。很多厂商把它当成「从 Chatbot 走向可执行系统」的标志。


· Subagents(子智能体)


一个 Agent 再拆出多个专职小 Agent 去处理子任务。


· Skills(可复用能力模块)


随着 OpenClaw 爆火,这个词近明显变得常见,这是给 AI Agent 的可安装、可复用、可组合的能力单元/操作说明书,但也特别提醒有工具滥用和数据暴露风险。


· Hallucination(机器幻觉)


意为模型一本正经地胡说八道,「感知到并不存在的模式」从而生成错误或荒谬输出,这是模型看似合理、实则错误的过度自信输出。


· Latency(延迟)


模型从收到请求到输出结果所花的时间,属于最常见的工程黑话之一,一聊落地和产品化就会频繁出现。


· Guardrails(护栏)


用于限制模型/Agent 能做什么、什么时候停、什么内容不能输出。


· Vibe Coding(氛围编程)


这个词也是如今最火爆的 AI 黑话,意为用户直接靠对话表达需求,AI 来写代码,而用户不需要具体懂如何写代码。


· Parameters(参数)


模型内部用于存储能力和知识的数字规模,常被用来粗暴衡量模型体量,「百亿参数」「千亿参数」都是 AI 圈最常见的唬人说法。


· Reasoning Model(强推理模型)


它通常指更擅长多步推理、规划、验证、复杂任务执行的模型。


· MCP(模型上下文协议)


这是近一年非常热的新黑话,作用类似给模型和外部工具/数据源之间建立通用接口。


· Fine-tuning / Tuning(微调)


是在基础模型上继续训练,让它更适应特定任务、风格或领域。Google 术语表直接把 tuning 和 fine-tuning 作为相关概念。


· Distillation(蒸馏)


把大模型的能力尽量压缩给小模型,像是让「老师」教会「学生」。


· RAG(检索增强生成)


这几乎已经成了企业 AI 的基础配置。微软把它定义为「搜索 + LLM」的模式,用外部数据来给回答做 grounding,解决模型训练数据过时、不了解私有知识库的问题。目的是把回答建立在真实文档和私有知识上,而不是只靠模型自己回忆。


· Grounding(事实对齐)


常和 RAG 一起出现,意思是让模型回答建立在文档、数据库、网页等外部依据上,而不是只靠参数记忆「自由发挥」。微软在 RAG 文档中明确把 grounding 作为核心价值。


· Embedding(向量嵌入 / 语义向量)


就是把文字、图片、音频等内容编码成高维数字向量,以便做语义相似度计算。


· Benchmark(基准测试)


用一套统一标准去测试模型能力的评测方式,也是各家模型最爱拿来「证明自己很强」的排行榜语言。


原文链接


点击了解律动BlockBeats 在招岗位


欢迎加入律动 BlockBeats 官方社群:

Telegram 订阅群:https://t.me/theblockbeats

Telegram 交流群:https://t.me/BlockBeats_App

Twitter 官方账号:https://twitter.com/BlockBeatsAsia

AI 解读
从加密行业的视角来看,这篇词汇手册及其相关文章清晰地揭示了一个趋势:AI 与 Crypto 的融合已从概念探讨进入技术架构和商业落地的实质阶段。手册中列出的术语不仅是 AI 的基础,更是理解两者结合点的关键。

例如,Token 的概念在 AI 中类似于 Gas,是资源消耗和计算的单位,这自然让人联想到区块链中的经济模型设计。RAG(检索增强生成)和 Grounding 强调用外部数据增强模型回答的可信度,这与区块链确保数据真实性和可验证性的目标高度一致。而 AI Agent 的自主任务处理、工具调用(Tool Calling),则需要依赖智能合约或去中心化基础设施来实现可信执行。

相关文章进一步强化了这一判断。数据是 AI 训练的核心瓶颈,而加密技术(如安全计算、数据代币化)正在尝试解决数据隐私、所有权和流动性的问题,这正是和所讨论的。去中心化知识图谱()和 AI Agent 经济(、)则试图将 AI 的能力从中心化巨头手中解放出来,通过代币经济激励数据贡献、模型训练和代理服务,构建可验证、可交易的人工智能市场。

另一方面,厂商如 OpenAI 不断降低 API 成本并增强多模态能力(),这加速了 AI 应用的普及,但也凸显了中心化服务的局限性。Web3 项目如 QnA3(、、)则试图构建由社区和用户主导的 AI 问答平台,将用户贡献和数据价值通过代币捕获回来。

本质上,AI 需要规模化的数据、算力和应用场景,而 Crypto 能提供激励、验证和去中心化协调的底层框架。两者的结合不是生搬硬套,而是围绕“数据主权”、“模型可信”、“价值分配”这些共同痛点展开的。未来的挑战在于,如何将 AI 的技术复杂性抽象为简单的、可组合的加密原语,让代理自主运行在去中心化网络上,同时保障其输出结果的可靠和经济行为的可持续。
展开
举报 纠错/举报
选择文库
新增文库
取消
完成
新增文库
仅自己可见
公开
保存
纠错/举报
提交