论文部分内容阅读
广泛应用于图像识别与分类的神经网络AlexNet,通过增加网络的深度及训练的参数量等方式获得较好的检测结果,但这些方式导致训练参数量庞大,使神经网络无法满足内存较小的嵌入式系统。文中为了解决训练参数量过大的问题,首先对SqueezNet进行模型压缩,对训练权值进行剪枝,让权值共享以及进行权值量化,对权值采用哈夫曼编码减少冗余。然后将被压缩后的SqueezeNet网络作为Faster R-CNN模型的骨干网络在KITTI数据集上进行训练并测试。文中方法使用的参数量比AlexNet少50倍,压缩后的模型