- A+
所属分类:AI AI agent概念&术语
RNN 是 Recurrent Neural Network 的缩写,中文叫 循环神经网络。
拆开来看:
- Recurrent(循环的、递归的):表示这种网络具有“记忆”能力,它的输出不仅取决于当前输入,还和之前的输入有关。
- Neural Network(神经网络):和 CNN 一样,也是一种模仿人脑结构的计算模型。
小学生也能懂的比喻:“有记忆的小机器人”
想象一个机器人在读一句话:
“我今天吃了一个 ___。”
- 如果是普通神经网络(比如 CNN),它只看到“一个 ___”,不知道前面说了什么。
- 但 RNN 不一样!它记得前面的词:“我”、“今天”、“吃了”……
所以它能猜出空格里很可能是“苹果”、“包子”或“冰淇淋”,而不会是“汽车”或“星星”。
这是因为 RNN 有一个“隐藏状态”(hidden state),就像一个小本子,每读一个词,就记下一点信息,传给下一个词用。这样,它就能理解顺序和上下文!
RNN 擅长处理什么?
RNN 特别适合处理有顺序的数据,比如:
- 📝 文本(句子、文章):因为词的顺序很重要。
- 🎵 语音:声音是一段连续的信号。
- 📈 时间序列:比如股票价格、天气变化,今天的值和昨天有关。
和 CNN 的区别?
CNN(卷积神经网络) | RNN(循环神经网络) | |
|---|---|---|
擅长 | 图像、空间数据 | 文本、语音、时间序列等序列数据 |
核心思想 | 局部特征提取(滑动窗口) | 记忆过去的信息(循环连接) |
像什么 | AI 的“眼睛” 👁️ | AI 的“短期记忆” 🧠 |
⚠️ 注意:
虽然 RNN 很有用,但它有个缺点:记不太远。比如读到第100个词时,可能已经忘了第1个词是什么了(这叫“长期依赖问题”)。
后来人们发明了更强大的变体,比如 LSTM 和 GRU,它们能记住更久远的信息。不过,现在很多任务(尤其是大语言模型)已经被 Transformer 取代了,因为它更快、效果更好。
