| 神经网络名称 | 
全称/修正名称 | 
主要作用 | 
核心特点 | 
典型应用场景 | 
CINI | 
CNN(卷积神经网络) | 
处理图像、视频等空间数据,提取局部特征。 | 
使用卷积核、池化操作;擅长平移不变性。 | 
图像分类、目标检测、人脸识别。 | 
RINI | 
RNN(循环神经网络) | 
处理时序数据(如文本、语音),捕捉时间依赖关系。 | 
通过隐藏状态传递历史信息;但存在梯度消失问题。 | 
语音识别、文本生成、时间序列预测。 | 
GAVE | 
GAN(生成对抗网络) | 
生成逼真数据(如图像、音频),通过生成器和判别器对抗训练。 | 
生成器伪造数据,判别器鉴别真伪;训练不稳定但生成质量高。 | 
图像生成、风格迁移、数据增强。 | 
GNN | 
GNN(图神经网络) | 
处理图结构数据(如社交网络、分子结构),建模节点间关系。 | 
聚合邻居节点信息;支持非欧几里得数据。 | 
推荐系统、药物发现、交通预测。 | 
Transformer | 
Transformer | 
处理长序列数据(如文本、语音),通过自注意力机制捕捉全局依赖。 | 
并行计算能力强;无需循环结构,适合大规模预训练。 | 
机器翻译、ChatGPT、多模态融合。 | 
LSTM | 
LSTM(长短期记忆网络) | 
解决RNN的长程依赖问题,更好地记忆时序中的关键信息。 | 
引入门控机制(输入门、遗忘门、输出门)。 | 
语音合成、股票预测、文本摘要。 | 
DQN | 
DQN(深度Q网络) | 
强化学习任务,通过Q-learning结合神经网络学习最优策略。 | 
使用经验回放和固定目标网络;解决高维状态空间问题。 | 
游戏AI(如AlphaGo)、机器人控制。 | 
DBN | 
DBN(深度置信网络) | 
无监督特征学习,通过堆叠受限玻尔兹曼机(RBM)预训练深度网络。 | 
逐层贪婪训练;常用于初始化深度学习模型。 | 
早期语音识别、图像特征提取。 | 
软件下载站