🧠 理解人工智能中的“向量”
在人工智能(尤其是机器学习、深度学习、自然语言处理等)中,“向量”是一种用来表示事物(如文本、图像、音频、用户行为等)的数学方式。理解“向量”是理解 AI 的重要基础之一。
🔢 1. 什么是“向量”?
从数学上说,向量就是一组有序的数字,比如:
[1.2, -0.7, 3.4, 0.0, 5.1]
这个可以是一个 5 维向量,也可以是更高维度的向量(例如 128维、768维、4096维等)。AI 模型里常用高维向量来捕捉复杂的模式。
🧠 2. 为什么要用“向量”表示事物?
因为计算机只能处理数字,而人类语言、图像、声音等不是数字,所以我们需要将它们“转化”为向量。
| 事物 | 转为向量示例 |
|---|---|
| “猫” | [0.12, 0.83, -0.55, ...](词向量) |
| 一张图片 | [0.98, -1.02, 0.11, ...](图像特征向量) |
| 一个用户 | [1, 0, 2, 0, 3, ...](行为向量) |
📌 3. 向量表示的意义是什么?
向量背后隐藏的是“语义”或“特征”,比如:
- 词向量中:“猫”与“狗”向量相似,而与“飞机”差异大
- 图像向量中:两张猫的图像向量彼此更接近
- 用户行为向量中:相似兴趣的用户向量更接近
向量之间的距离(如余弦相似度)就代表它们之间的关系强弱。
✨ 4. 一个自然语言例子(NLP)
模型可以将下列单词表示成向量:
| 单词 | 向量示意(高维向量) |
|---|---|
| King | [0.12, 1.03, -0.88, ...] |
| Queen | [0.10, 1.05, -0.91, ...] |
| Man | [0.02, 0.99, -1.00, ...] |
| Woman | [0.01, 1.02, -1.02, ...] |
这些向量之间可以被“计算”关系:
King - Man + Woman ≈ Queen
这就叫做 词向量的代数关系,Word2Vec、BERT 等模型都使用这种技术。
📊 5. 向量的常见用途
| 应用 | 向量作用 |
|---|---|
| 文本相似度 | 比较两个文本向量的相似程度 |
| 图像搜索 | 查找与目标图像向量相似的图片 |
| 推荐系统 | 用户/商品向量匹配推荐内容 |
| 向量数据库 | 存储海量向量,进行“近似最近邻搜索”(ANN) |
🔧 6. 与“嵌入”(Embedding)关系?
嵌入(Embedding)就是一种将东西转成向量的过程或技术。
例如:
- Word2Vec、GloVe、BERT → 把词变成向量(词嵌入)
- CLIP → 把图像和文字都转成向量
- OpenAI Embedding API → 把一句话转成向量
🧩 总结一句话:
在人工智能中,向量是“数字化表达现实世界事物”的方式,是模型理解和计算一切的基础。
如需进一步解释,可结合代码、图示或具体模型(如 BERT、CLIP、Faiss 向量搜索等)展开说明。
No comments to display
No comments to display