Skip to main content

🧠 理解人工智能中的“向量”

在人工智能(尤其是机器学习、深度学习、自然语言处理等)中,“向量”是一种用来表示事物(如文本、图像、音频、用户行为等)的数学方式。理解“向量”是理解 AI 的重要基础之一。


🔢 1. 什么是“向量”?

从数学上说,向量就是一组有序的数字,比如:

[1.2, -0.7, 3.4, 0.0, 5.1]

这个可以是一个 5 维向量,也可以是更高维度的向量(例如 128维、768维、4096维等)。AI 模型里常用高维向量来捕捉复杂的模式。


🧠 2. 为什么要用“向量”表示事物?

因为计算机只能处理数字,而人类语言、图像、声音等不是数字,所以我们需要将它们“转化”为向量。

事物 转为向量示例
“猫” [0.12, 0.83, -0.55, ...](词向量)
一张图片 [0.98, -1.02, 0.11, ...](图像特征向量)
一个用户 [1, 0, 2, 0, 3, ...](行为向量)

📌 3. 向量表示的意义是什么?

向量背后隐藏的是“语义”或“特征”,比如:

  • 词向量中:“猫”与“狗”向量相似,而与“飞机”差异大
  • 图像向量中:两张猫的图像向量彼此更接近
  • 用户行为向量中:相似兴趣的用户向量更接近

向量之间的距离(如余弦相似度)就代表它们之间的关系强弱。


✨ 4. 一个自然语言例子(NLP)

模型可以将下列单词表示成向量:

单词 向量示意(高维向量)
King [0.12, 1.03, -0.88, ...]
Queen [0.10, 1.05, -0.91, ...]
Man [0.02, 0.99, -1.00, ...]
Woman [0.01, 1.02, -1.02, ...]

这些向量之间可以被“计算”关系:

King - Man + Woman ≈ Queen

这就叫做 词向量的代数关系,Word2Vec、BERT 等模型都使用这种技术。


📊 5. 向量的常见用途

应用 向量作用
文本相似度 比较两个文本向量的相似程度
图像搜索 查找与目标图像向量相似的图片
推荐系统 用户/商品向量匹配推荐内容
向量数据库 存储海量向量,进行“近似最近邻搜索”(ANN)

🔧 6. 与“嵌入”(Embedding)关系?

嵌入(Embedding)就是一种将东西转成向量的过程或技术。

例如:

  • Word2Vec、GloVe、BERT → 把词变成向量(词嵌入)
  • CLIP → 把图像和文字都转成向量
  • OpenAI Embedding API → 把一句话转成向量

🧩 总结一句话:

在人工智能中,向量是“数字化表达现实世界事物”的方式,是模型理解和计算一切的基础。


如需进一步解释,可结合代码、图示或具体模型(如 BERT、CLIP、Faiss 向量搜索等)展开说明。