GoGoing AI819+ AI 工具 · 全场景一站式
工具提示词教程课程NEW场景对比NEW资讯
搜索 819+ 工具...搜索/
全部入口💰算钱🎁免费⚖️对比🏆跑分🎓课程🔥热门🧭细分📜演进史📅大会📑报告💻开源🏢公司🟢状态💖收藏← 左右滑动
819+
AI 工具
50
AI 课程
45
子方向
10
对比评测
42
提示词
27
模型跑分
24
AI 资讯
18
功能模块
GoGoing AI
819+ AI 工具 · 全场景一站式

收录 819+ 全球优质 AI 工具、42 个实战提示词、12 篇教程、50 门课程、10 篇双工具对比、45 个子方向、24 条资讯。覆盖 AI 聊天 / 写作 / 绘画 / 视频 / 编程 / 办公 / 金融 / 游戏 等 16 个分类全场景。

每周 AI 速递免费

每周一封,5 分钟看完本周 AI 圈大事 + 新工具精选

✕

学 AI

  • 学习教程
  • AI 课程库
  • 提示词库
  • 术语词典
  • 使用场景

找工具

  • 全部工具
  • AI 聊天
  • AI 编程
  • AI 绘画
  • AI 视频
  • 工具对比

选工具

  • 🔥 热门榜
  • 💰 成本计算器
  • 🎁 免费额度一览
  • 🏆 模型跑分榜
  • ⚖️ 双工具对比
  • 📜 模型演进史

看动态

  • AI 资讯
  • 大会日历
  • AI 报告库
  • 开源项目
  • AI 公司
  • 🟢 服务状态

其他

  • 💖 我的收藏
  • 🔎 站内搜索
  • 📝 提交工具
  • 📰 RSS 订阅
  • 🔧 管理后台
⌘/Ctrl+K命令面板/站内搜索
Cloudflare Pages · 免备案安全等级 A1046 静态页
© 2026 GoGoing AI. All rights reserved.隐私政策服务条款关于我们
Built withusing Next.js · Tailwind · Cloudflare
45 个 AI 核心术语 · 一篇搞懂

AI 术语词典

Transformer、RAG、LoRA、Agent...看懂这些词,你就不再是 AI 圈外人

基础概念(10)

AIArtificial Intelligence / 人工智能

让机器具备学习、推理、感知等智能行为的技术总称。今天说的 AI 主要指机器学习,特别是基于神经网络的深度学习。

机器学习Machine Learning / ML

不靠规则,让机器从数据里自动找规律的方法。是实现 AI 的主流路径。

举例:给 AI 看 100 万张猫的图,它就能认出新的猫图。

深度学习Deep Learning / DL

机器学习的一个分支,使用多层神经网络。2012 年后支撑了大模型、图像识别、语音识别等突破。

神经网络Neural Network / NN

模仿人脑神经元结构的数学模型,由多层节点组成,每层节点之间通过权重连接。

训练Training

用海量数据喂给模型,让它不断调整内部参数以最小化错误率的过程。

推理Inference

训练完成的模型被调用来回答问题、生成内容的过程。你平时用 ChatGPT 就是在做推理。

参数量Parameters

模型内部可学习的数值总量,常用 B(十亿)标注。如 Llama 70B 表示 700 亿参数。参数越多通常越强但越贵。

Token词元

模型处理文本的基本单位,可能是一个字、一个词或一个子词。中文平均 1 字 ≈ 1.5 token。

举例:"我喜欢 AI" 约 3-4 个 token。

上下文窗口Context Window

模型一次对话能同时处理的最大 token 数。Claude 200K ≈ 15 万汉字;GPT-4o 128K ≈ 10 万汉字。

幻觉Hallucination

模型一本正经地胡编乱造,输出看起来合理但实际错误的信息。所有大模型都有这个问题。

举例:你问爱因斯坦在哪年得过诺贝尔化学奖(他得的是物理),AI 可能会给你编个年份。

模型架构(8)

Transformer

2017 年 Google 提出的神经网络架构,是 ChatGPT、Claude、Gemini 等所有主流大模型的基础。核心是 Self-Attention 自注意力机制。

LLMLarge Language Model / 大语言模型

参数量通常在十亿以上、用海量文本训练的 Transformer 模型。代表:GPT、Claude、Llama、DeepSeek。

GPTGenerative Pre-trained Transformer

OpenAI 的旗舰大模型系列。Generative 生成式、Pre-trained 预训练、Transformer 架构。

多模态Multimodal

能同时处理文本、图像、音频、视频等多种信息的模型。GPT-4o、Gemini、Claude 3.5 都是多模态。

MoEMixture of Experts / 混合专家

把大模型拆成多个专家子模型,每次推理只激活一部分。用更少算力实现更强性能。DeepSeek V3、Mixtral 都用了 MoE。

扩散模型Diffusion Model

图像生成主流架构。先给图片加噪声,再训练模型一步步去噪还原。Stable Diffusion、Midjourney、Sora 都基于此。

VAEVariational Autoencoder

变分自编码器。用于图像生成和压缩,扩散模型里常用它把图像编码到潜空间。

Embedding向量嵌入

把文字/图片转成一串数字(向量),相似内容的向量距离更近。是 RAG 和语义搜索的基础。

技术方法(14)

Prompt提示词

你给 AI 输入的指令。Prompt 质量直接决定输出质量。

Prompt Engineering提示词工程

通过设计更好的 Prompt 来让 AI 输出更准确、更符合预期的工程实践。

Few-shot少样本学习

在 Prompt 里给几个示例,让模型模仿格式/风格回答。比单纯描述需求效果好得多。

Zero-shot零样本

不给任何示例,直接让模型完成任务。能干复杂任务是大模型能力强的标志。

CoTChain-of-Thought / 思维链

让模型一步步推理再给答案。加一句"请一步步思考"能显著提高数学和逻辑题准确率。

RAGRetrieval-Augmented Generation / 检索增强生成

先从知识库里检索相关信息,再把信息和问题一起给大模型生成回答。企业知识库问答首选方案。

Fine-tuning微调

在预训练模型基础上,用你自己的数据再训练一遍,让模型适应特定风格或任务。

LoRALow-Rank Adaptation

一种轻量级微调方法。只训练一小部分新增参数,成本比全量微调低 10-100 倍。AI 绘画社区最火。

RLHFReinforcement Learning from Human Feedback

通过人类反馈做强化学习,让模型输出更符合人类偏好。ChatGPT 能这么好用靠的就是 RLHF。

Agent智能体

能自主规划任务、调用工具、执行多步骤动作的 AI 系统。从"对话"进化到"干活"。

MCPModel Context Protocol

Anthropic 提出的开放协议,让大模型能标准化连接本地文件、数据库、外部工具。被视为 AI 界的 USB-C。

Function Calling工具调用

让大模型按 JSON 格式调用外部函数(API、数据库、代码执行),是构建 Agent 的关键能力。

ControlNet

Stable Diffusion 的扩展,能精确控制生成图像的构图、姿势、线稿。AI 绘画商用必备。

量化Quantization

把模型参数从 FP32 压缩到 INT8/INT4,体积变 1/4 到 1/8,让大模型能在笔记本甚至手机上跑。

产品形态(7)

APIApplication Programming Interface

开发者调用大模型能力的接口。OpenAI、Anthropic、DeepSeek 等都提供 API,按 token 计费。

Copilot副驾驶

嵌入到工作流里的 AI 助手。如 GitHub Copilot 写代码、Microsoft 365 Copilot 做 Office。

Playground

模型厂商提供的在线试玩平台,不用写代码也能调参数测效果。OpenAI / Anthropic / Google 都有。

ChatBot聊天机器人

以对话形式提供 AI 服务的产品,如 ChatGPT、Claude、豆包。

AGIArtificial General Intelligence / 通用人工智能

理论上具备人类所有认知能力的 AI。目前还没有真正的 AGI,OpenAI/DeepMind 都在追求这个目标。

开源模型Open-source Model

模型权重公开可下载的大模型。代表:Llama、Mistral、DeepSeek、Qwen、GLM。

闭源模型Closed-source Model

只通过 API 或产品提供服务,不公开权重的模型。如 GPT-4、Claude、Gemini。

硬件算力(6)

GPUGraphics Processing Unit / 图形处理器

AI 训练和推理的主力芯片。英伟达 A100/H100/B200 是数据中心标配。

TPUTensor Processing Unit

Google 自研的 AI 芯片,专为神经网络优化。Gemini 等模型在 TPU 上训练。

显存VRAM

GPU 上的专用内存。大模型推理时需要把参数加载到显存,70B 模型大约要 140GB 显存(FP16)。

FLOPS

每秒浮点运算次数,衡量算力的指标。H100 的 FP16 算力约 989 TFLOPS。

LPULanguage Processing Unit

Groq 公司自研的推理芯片。专为大语言模型优化,吞吐是英伟达 GPU 的数倍。

算力租赁

把 GPU 做成云服务按时租用。如 RunPod、Lambda Labs、Replicate、硅基流动等。