博客
关于我
Learning both Weights and Connections for Efficient Neural Networks
阅读量:804 次
发布时间:2023-01-30

本文共 785 字,大约阅读时间需要 2 分钟。

《Learning both Weights and Connections for Efficient Neural Networks》

为高效神经网络同时学习权重和连接的方法

作者:Song Han、Jeff Pool 等

单位:斯坦福大学、NVIDIA

发表会议及时间:NIPS 2015

当前的神经网络在计算需求和存储占用上都存在一定的挑战,尤其是在嵌入式系统中部署时更为困难。此外,传统网络的架构通常在训练开始前就固定下来,这意味着在训练过程中无法优化网络的结构。为了解决这些问题,本文提出了一种方法,可以在训练过程中同时学习权重和连接,从而将存储和计算需求降低一大半,同时保持模型的精度。我们的剪枝方法通过三步训练过程实现:首先是对正431}>

在数据集上对未压缩的模型进行完整训练至收敛。第二步,在训练完成后,剪掉权重小于阈值的神经元。第三步,对剪枝后的模型进行权重微调,恢复其精度。通过对AlexNet和VGG-16的实验表明,我们的方法可以将参数量减少9倍和13倍而不影响模型性能。

通过在训练过程中改变模型结构,可以减少模型参数量、降低计算量、加快推理速度。这种方法的核心在于利用训练时学习到的权重不仅用于预测结果,还可以作为衡量神经元重要性的依据。

同时训练权重和要剪的神经元可以降低损失。这种方法通过迭代训练的方式减少剪枝对精度的影响,并讨论了正则化方法在剪枝过程中的影响。

实验成果

在Imagenet数据集上,本文的方法在将AlexNet压缩了9倍参数的情况下,精度基本保持不变。类似实验表明,VGG-16的参数量可以减少13倍,而总体性能并未下降。

方法意义

  • 通过迭代训练的方法将剪枝引入模型训练过程,降低了剪枝导致的精度损失
  • 采用权重值作为神经元重要性判断依据,简化了神经元重要性计算的过程
  • 对各种正则化方法对剪枝过程的影响进行了深入讨论

转载地址:http://jtgyk.baihongyu.com/

你可能感兴趣的文章
Objective-C实现k-Means算法(附完整源码)
查看>>
Objective-C实现k-nearest算法(附完整源码)
查看>>
Objective-C实现Knapsack problem背包问题算法(附完整源码)
查看>>
Objective-C实现knapsack背包问题算法(附完整源码)
查看>>
Objective-C实现knapsack背包问题算法(附完整源码)
查看>>
Objective-C实现knight tour骑士之旅算法(附完整源码)
查看>>
Objective-C实现KNN算法(附完整源码)
查看>>
Objective-C实现koch snowflake科赫雪花算法(附完整源码)
查看>>
Objective-C实现KPCA(附完整源码)
查看>>
Objective-C实现kth order statistick阶统计量算法(附完整源码)
查看>>
Objective-C实现LongestIncreasingSubsequence最长递增子序列算法(附完整源码)
查看>>
Objective-C实现LRU 缓存算法(附完整源码)
查看>>
Objective-C实现lstm prediction预测算法(附完整源码)
查看>>
Objective-C实现Luhn (Mod 10)Algorithm算法(附完整源码)
查看>>
Objective-C实现max subarray sum最大子数组和算法(附完整源码)
查看>>
Objective-C实现MaximumSubarray最大子阵列(动态规划解决方案)算法(附完整源码)
查看>>
Objective-C实现max_heap最大堆算法(附完整源码)
查看>>
Objective-C实现md5算法(附完整源码)
查看>>
Objective-C实现memoization优化技术算法(附完整源码)
查看>>
Objective-C实现memset函数功能(附完整源码)
查看>>