强化学习中的选项框架模拟了技能或时间延长的动作序列的概念。发现可重复使用的技能通常需要构建选项,导航到瓶颈状态。这项工作采用了一种互补的方法,我们试图找到导航到具有里程碑意义的国家的选择。这些状态是连接良好的区域的原型代表,因此可以相对容易地访问相关区域。在这项工作中,我们提出了Successor Options,它使用Successor Representations来构建状态空间大小单双倍投公式。使用新颖的伪奖励来学习这些选项策略,并且可以轻松地将大小单双倍投公式转换为高维空间。此外,我们还提出了一个在构造成功表示和构建选项之间迭代的增量后继选项大小单双倍投公式,当robustSuccessor表示不能仅仅从原始操作构建时,这很有用。我们展示了我们的方法对网格世界的集合以及Fetch的高维机器人控制环境的功效。
translated by 谷歌翻译
大小单双倍投公式通常需要被约束到一定的大小以使它们被认为是可解释的,例如,深度5的决策树比深度30中的一个更容易理解。这表明在可解释性和准确性之间进行权衡。我们的工作试图通过提供数据的最佳分布以便从中学习来最小化这种权衡,令人惊讶的是,这可能与原始分布不同。我们使用无限Beta混合大小单双倍投公式(IBMM)来表示一组特定的样本。使用贝叶斯优化器(BO)学习IBMM的参数。虽然在简单的假设下,原始$ d $ -dimensional空间中的分布需要针对$ O(d)$变量进行优化 - 对于大多数真实世界的数据来说是繁琐的 - 我们的技术将这个数字显着降低到8个变量的固定集合。一些额外预处理的成本。提出的技术是\ emph {model-agnostic};它可以应用于任何分类器。它还承认大小单双倍投公式大小的一般概念。我们使用多个真实世界数据集来证明其有效性,以构建决策树,线性概率大小单双倍投公式和梯度增强大小单双倍投公式。
translated by 谷歌翻译
图形是许多问题的自然抽象,其中节点代表性和边缘代表实体之间的关系。在过去十年中出现的一个重要的研究领域是使用图形作为非线性降维的车辆,其方式类似于基于流形学习的预防措施,用于下游数据库处理,机器学习和可视化。在这个系统而全面的实验调查中,我们对几个流行的网络代表学习方法进行了基准测试,这些方法在两个关键任务上运行:链接预测和节点分类。我们检查了12个无监督嵌入方法在15个数据集上的性能。据我们所知,我们的研究规模 - 无论是方法数量还是数据集数量 - 都是迄今为止最大的研究。我们的结果揭示了关于这个领域迄今为止工作的几个关键见解。首先,我们发现某些基线方法(特定于任务的启发式方法,以及经典的多种方法)经常被解雇或以前的努力未被考虑,可以参与竞争。某些类型的数据集,如果它们适当调整。其次,我们发现最近基于矩阵因子化的方法从定性的角度提供了一些小的但相对一致的优点,即替代方法(例如,基于随机游走的方法)。具体来说,我们发现MNMF是一种社区保留嵌入方法,是链路预测任务中最具竞争力的方法。虽然NetMF是节点分类最具竞争力的基线。第三,nosingle方法在节点分类和链接预测任务上完全优于其他嵌入方法。我们还提供了几个深入分析,揭示了某些算法表现良好的设置(例如,邻域上下文对性能的作用) - 指导了用户。
translated by 谷歌翻译
强大的策略搜索是学习策略的问题,这些策略在受到看不见的环境大小单双倍投公式参数影响时不会降低性能。它特别适用于将在模拟环境中学习的策略传递给现实世界。现有的几种方法涉及采样大批量的轨迹,反映各种可能环境的差异,然后选择其中的一些子集来学习稳健的策略,例如导致性能最差的策略。我们提出了一个基于主动学习的框架EffAcTS,以选择性地选择大小单双倍投公式参数,以便仅收集选择这样的子集所需的数据。我们将此框架应用于现有方法,即EPOpt,并实验验证样本效率的提高和标准连续控制任务的方法性能。我们还提出了一个针对强健策略搜索问题的多任务学习视角,并将我们提出的框架与现有的多任务学习工作联系起来。
translated by 谷歌翻译
超图上的聚类已经在网络分析,VLSI设计和计算机视觉等方面引起了越来越多的关注。在这项工作中,我们概括了模块化最大化的框架,以便在超图上进行聚类。为此,我们引入了一个类似于无向图上的配置大小单双倍投公式的超图空大小单双倍投公式,以及一个节点度保持约简来使用该大小单双倍投公式。这用于定义可以使用popularand快速Louvain算法最大化的模块化函数。我们还通过以迭代方式重新加权切割超边界来提出对该聚类的改进。我们的方法的效率和效率在几个真实数据集上得到证明。
translated by 谷歌翻译
大小单双倍投公式 最近有很多关于从深度卷积神经网络(CNN)修剪滤波器的工作,目的是减少计算。关键的想法是根据一定的标准(比如l1-norm)对滤波器进行排序,并且只保留最高排名。过滤器。一旦低分数过滤器被修剪掉,网络的其余部分就会被微调,并且显示出与原始未净化网络相当的性能。在这项工作中,我们报告了实验,这些实验表明,成熟网络的可比性能不是由于所选择的特定标准,而是由于深度神经网络的固有可塑性,这使得它们能够在其余滤波器恢复后从修剪过滤器的损失中恢复。特别地,我们显示了反直觉的结果,其中通过从深CNN随机修剪25-50%的滤波器,我们能够获得与使用最先进的修剪方法获得的相同的性能。我们通过对VGG-16和ResNet-50进行详尽的评估,凭经验验证了我们的索赔。我们还评估了一个现实世界的场景,其中CNN训练所有1000个ImageNet类需要在测试时仅在一小组类上进行测试(例如,只有动物)。我们从ImageNet创建了一个新的基准数据集来评估这种类特定的修剪,并表明即使在这里,随机修剪策略也能提供最先进的性能。与主要关注图像分类任务的现有方法不同,在这项工作中,我们还报告了对象检测和图像分割的结果。我们表明,使用简单的randompruning策略,我们可以在物体检测中实现显着的加速(fps提高74%),同时保持与原始RCNN大小单双倍投公式相同的精度。同样地,我们表明修剪的分段网络(SegNet)的性能实际上与原始的未经传播的SegNet非常相似。
translated by 谷歌翻译
单目SLAM指的是使用单个相机来估计机器人自我运动,同时构建环境地图。虽然Monocular SLAM是一个研究得很好的问题,但通过将Monocular SLAM与轨迹规划框架相结合来实现单眼SLAM的自动化尤其具有挑战性。本文提出了一种基于强化学习(RL)的新型公式,它可以生成故障安全轨迹,其中SLAM生成的输出不会在很大程度上偏离其真实值。典型地,RL框架成功地学习了感知输入和运动动作之间的其他复杂关系,并使用该知识生成不会导致SLAM失败的轨迹。我们在模拟中系统地展示了当使用RL计算轨迹时SLAM的质量如何显着提高。我们的方法在模拟和移动机器人的实际实验中有效地跨越单目SLAM框架。
translated by 谷歌翻译
学习选项允许代理表现出时间上更高的顺序行为已被证明在增加探索,减少样本复杂性和各种转移场景方面是有用的。选项的深度发现(DDO)是一种生成算法,可以从专家轨迹直接学习分层策略以及选项。我们对DDO在不同领域推断的选项进行定性和定量分析。为此,我们提出了不同的价值指标,如期权终止条件,铰链值函数误差和基于KL-发散的距离度量,以比较不同的方法。分析选项的终止条件和运行选项的时间步数表明选项是过早终止的。我们建议可以轻松合并的修改,并减少选项更短和同一模式选项崩溃的问题。
translated by 谷歌翻译
视频中的对象检测是计算机视觉中的一项重要任务,适用于各种应用,如对象跟踪,视频摘要和视频。尽管近年来由于改进的训练和部署深度神经网络的技术在提高物体检测的准确性方面取得了很大进展,但它们在计算上非常密集。例如,使用SSD300(Single ShotDetector)物体检测网络处理300x300分辨率的视频,VGG16作为主干,速度为30 fps,需要1.87万亿FLOPS / s。为了应对这一挑战,我们在视频背景下进行了两次重要的观察。在一些场景中,视频帧中的大多数区域是背景,并且显着对象仅占据帧中区域的小部分。此外,在视频中,连续帧之间存在强时相关。基于这些观察,我们提出了打包和检测(PaD),以减少使用神经网络对视频中的对象检测任务的计算要求。在PaD中,在称为锚帧的所选帧中以全尺寸处理输入视频帧。在锚帧之间的帧中,即帧间帧,基于前一帧中的检测来识别感兴趣区域(ROI)。我们提出了一种算法,用于在较小尺寸的帧中将每个帧间锚帧的ROI打包在一起。为了保持物体检测的准确性,该算法贪婪地扩展了ROI,为检测器提供了更多的背景信息。由于输入的较小尺寸,减少了计算要求。该方法可以将帧所需的FLOPS数量减少4倍。调整算法参数可以使吞吐量提高1.3倍,精度仅下降2.5%。
translated by 谷歌翻译
归因图中的半监督节点分类,即具有节点特征的图,涉及学习在给定部分标记图的情况下对未标记节点进行分类。通过联合建模节点及其邻域特征来进行标签预测。用于超分布图上的节点分类的最先进大小单双倍投公式使用可微分递归函数,其使得能够聚集和过滤来自多跳的邻域信息。在这项工作中,我们分析了这些大小单双倍投公式的表示能力,以独立地调节来自多跳的信息。根据我们的分析,我们得出结论,尽管这些大小单双倍投公式功能强大,但它们的表示能力有限,无法有效捕获多跳邻域信息。此外,我们还提出了对现有图形卷积网络(GCN)的数学推动但简单的扩展,其具有改进的表示能力。我们对来自不同领域的八个流行数据集的F-GCN进行了广泛的评估。 F-GCN在六个数据集上优于最先进的大小单双倍投公式forsemi监督学习,而在另外两个数据集上具有极强的竞争力。
translated by 谷歌翻译