神经网络名称 |
全称/修正名称 |
主要作用 |
核心特点 |
典型应用场景 |
CINI |
CNN(卷积神经网络) |
处理图像、视频等空间数据,提取局部特征。 |
使用卷积核、池化操作;擅长平移不变性。 |
图像分类、目标检测、人脸识别。 |
RINI |
RNN(循环神经网络) |
处理时序数据(如文本、语音),捕捉时间依赖关系。 |
通过隐藏状态传递历史信息;但存在梯度消失问题。 |
语音识别、文本生成、时间序列预测。 |
GAVE |
GAN(生成对抗网络) |
生成逼真数据(如图像、音频),通过生成器和判别器对抗训练。 |
生成器伪造数据,判别器鉴别真伪;训练不稳定但生成质量高。 |
图像生成、风格迁移、数据增强。 |
GNN |
GNN(图神经网络) |
处理图结构数据(如社交网络、分子结构),建模节点间关系。 |
聚合邻居节点信息;支持非欧几里得数据。 |
推荐系统、药物发现、交通预测。 |
Transformer |
Transformer |
处理长序列数据(如文本、语音),通过自注意力机制捕捉全局依赖。 |
并行计算能力强;无需循环结构,适合大规模预训练。 |
机器翻译、ChatGPT、多模态融合。 |
LSTM |
LSTM(长短期记忆网络) |
解决RNN的长程依赖问题,更好地记忆时序中的关键信息。 |
引入门控机制(输入门、遗忘门、输出门)。 |
语音合成、股票预测、文本摘要。 |
DQN |
DQN(深度Q网络) |
强化学习任务,通过Q-learning结合神经网络学习最优策略。 |
使用经验回放和固定目标网络;解决高维状态空间问题。 |
游戏AI(如AlphaGo)、机器人控制。 |
DBN |
DBN(深度置信网络) |
无监督特征学习,通过堆叠受限玻尔兹曼机(RBM)预训练深度网络。 |
逐层贪婪训练;常用于初始化深度学习模型。 |
早期语音识别、图像特征提取。 |
软件下载站