论文部分内容阅读
设计有效的神经网络架构对于深度学习的性能是至关重要的。虽然目前自动设计深度神经网络结构的技术(例如基于强化学习的方法)显示出非常好的结果。然而,这些方法的计算量需求过高,使得它们难以被广泛使用。一个明显的限制是,他们仍然在从头开始探索结构空间和训练每个网络,这是非常低效的。在本文中,我们提出了一种新的高效神经网络结构搜索框架。这个方法会基于当前给定的网络去探索结构空间并会重用其权重。我们使用了一个强化学习智能体作为元控制器。它的动作是通过保持功能的网络变换来增加神经网络的深度或宽度。这样,先前验证的神经网络可以重复用于进一步探索,因此可以节省了大量的计算成本。此外,为了进一步提高性能,我们提出路径级网络变换操作来解决当前网络变换操作的局限性。这些网络变换操作只能执行层级的结构修改,例如添加(修剪)过滤器或插入(移除)层,无法更改神经网络的拓扑结构。基于提出的路径级网络变换操作,我们进一步提出了一个双向树结构的强化学习元控制器来探索树形的神经网络结构空间。这个树形的神经网络结构空间可以看成是当前多分支神经网络结构空间的泛化版本,并可以在每个卷积神经网络(CNN)单元内嵌入丰富的路径。在受限的计算资源下,我们应用提出的方法来自动设计神经网络结构,应用于图像分类任务。与人工设计的和其他自动设计的神经网络结构相比,我们的方法可以设计出非常具有竞争力的神经网络结构。在一个小规模的图片分类基准数据集(CIFAR-10)上,我们链状卷积神经网络(CNN)模型达到了4.23%的测试错误率,超过了绝大多数最新的神经网络结构。此外,通过将我们的方法与最佳的人类专家设计的神经网络结构相结合,我们能以14.3M参数量在这个小规模的图片分类基准数据集(CIFAR-10)上实现2.30%的测试错误率。而在移动设置的大规模图片分类基准数据集(ImageNet)上,我们的方法能达到74.6%的前1精度。这验证了我们自动设计的神经网络结构的有效性和可转移性。