机器学习正在从艺术和科学转变为可供每个开发人员使用的技术。在不久的将来,每个平台上的每个应用程序都将包含训练有素的大小单双倍投公式,以编码开发人员无法创作的基于数据的决策。这提出了一个重要的工程挑战,因为目前数据科学和建模在很大程度上与标准软件开发过程脱钩。这种分离使得在应用程序内部的机器学习能力不必要地变得困难,并且进一步阻碍了开发人员将MLin置于首位。在本文中,我们介绍了ML .NET,这是一个在过去十年中在Microsoft开发的框架,用于应对在大型软件应用程序中轻松发布机器学习大小单双倍投公式的挑战。我们提出了它的架构,并阐明了形成它的应用程序需求。具体而言,我们引入了DataView,它是ML .NET的核心数据抽象,它可以有效地,一致地捕获完整的预测管道,并在训练和推理生命周期中进行。我们结束了论文,对ML .NET进行了令人惊讶的有利的性能研究,与更多的接受者相比,并讨论了一些经验教训。
translated by 谷歌翻译
情景记忆在动物和人类的行为中起着重要作用。它允许以任务无关的方式累积有关环境当前状态的信息。这种情节表示可以通过下游任务来延迟,以使其执行更有效。在这项工作中,我们介绍了具有共享情景记忆(SEM)的神经结构,用于学习和多个任务的顺序执行。我们明确地将情景记忆和特定任务特定内存的编码分离为单独的重复子网络。使用SEM增强的代理能够有效地重用在其他任务期间收集的情节知识,以改进出租车问题中当前任务的策略。在连续学习实验中反复使用情节表示有助于在同一环境中获得新技能。
translated by 谷歌翻译
在本文中,我们使基于测地距离的递归滤波器适应稀疏数据插值问题。所提出的技术是通用的,并且可以很好地应用于任何类型的稀疏数据。我们在定性和定量评估的三个实验中证明了优于其他插值技术的优势。此外,我们将我们的方法与EpicFlow光学流程论文中流行的插值算法进行了比较,该算法由相似的测地距离原理直观地推动。比较表明,我们的算法比EpicFlow插值技术更准确,速度更快。
translated by 谷歌翻译
识别其环境中的相关对象或对象状态是自主机器人的基本能力。在图像和距离图像中对象识别的主要方法是通过监督机器学习进行分类,现在主要使用深度卷积神经网络(CNN)。这适用于目标类,其可变性可以通过训练样本完全覆盖。然而,在野外移动的机器人,即在识别系统被训练时未知的环境中,将经常面临\ emph {域转移}:训练数据不能被假设为彻底地解决了类内变异性将在测试数据中遇到。在这种情况下,学习原则上是可能的,因为训练集确实捕获了目标类的定义属性,分别是不同的。但是直接训练CNN来预测类概率很容易超出类标签与训练集中表示的目标类的特定子集之间的无关相关性。我们探索这个想法,而不是学习一对暹罗CNN作为训练样例之间的相似性函数。然后通过测量新测试实例和训练样本之间的相似性来获得类预测。我们证明CNN嵌入正确地恢复了训练集中任意类样本的相似性。因此,随机挑选的培训样本很少,足以实现良好的预测,使程序有效。
translated by 谷歌翻译
在本文中,我们将树重加序列方法中提出的标准置信传播(BP)序列技术扩展到具有测地距离亲和力的完全连接的CRF大小单双倍投公式。该方法已应用于立体匹配问题。此外,我们提出了一种新的BP算法解决方案,我们称之为单视点遮挡检测(OVOD)。与标准赢家进行全部(WTA)估计相比,提出的OROD解决方案允许在视差图中找到遮挡区域并同时改善匹配结果。因此,我们只能执行一个能量最小化过程,并避免第二个视图和左右检查过程的成本计算。我们表明,OVOD方法显着改善了成本增加和能量最小化技术的结果,与标准的单视图亲和空间实现相比。我们将方法应用于Middlebury数据集,并达到最先进的特别是形成者,平均和均方误差指标。
translated by 谷歌翻译
提出了基于深度森林每个级联级别的每个训练实例的自适应加权的置信度筛选机制的修改。修改背后的想法非常简单,源于Pang等人提出的置信度筛选机制思想。通过根据每个训练实例的分类准确性更新每个级别的训练集来简化深森林分类器。但是,如果置信度筛选机制只是从训练和测试过程中删除实例,那么建议的修改更灵活并通过权重分配考虑到分类准确性。在某种程度上,修改类似于AdaBoost。数值实验表明,与周和冯提出的原始深林相比,该改进具有良好的性能。
translated by 谷歌翻译
本文提出了一个加权随机生存林。它可以被视为随机森林的改进,改善其性能。所提出的大小单双倍投公式的基本思想是用权重分配给每棵树的替代用于估计随机生存森林危险函数的标准程序,并且可以作为训练参数,通过求解标准二次方以最佳方式计算得到的训练参数优化问题最大化Harrell的C指数。具有真实数据的数值示例说明了所提出的大小单双倍投公式与原始随机生存林的比较的优异性。
translated by 谷歌翻译
大小单双倍投公式 机器学习中的泛化问题 - 算法如何能够从训练样本中学习预测器以便在样本外进行准确预测 - 根据现代机器学习技术的最新突破进行了重新审视。理解泛化的经典方法是基于偏差 - 方差权衡,其中大小单双倍投公式复杂性被仔细校准,因为训练样本的拟合反映了样本外的性能。然而,现在通常的做法是将高度复杂的大小单双倍投公式(如深度网络)拟合到具有(接近)零训练误差的数据,然而这些插值预测器即使对于噪声数据也具有良好的样本外精度。如何将对泛化的经典理解与现代机器学习实践的观察结果相协调?在本文中,我们通过展示新的“双下降”风险曲线来弥合这两种制度,这种曲线将传统的U形偏差 - 方差曲线扩展到插值点以外。具体来说,曲线表明,只要大小单双倍投公式复杂度足以在训练样本上实现插值 - 我们称之为“插值阈值” - 从这些大小单双倍投公式中适当选择插值预测器的风险实际上可以随着大小单双倍投公式复杂度的增加而减小,通常低于使用非插值大小单双倍投公式实现的风险。双下降风险曲线适用于广泛的大小单双倍投公式,包括神经网络和随机森林,并提出了产生这种行为的机制。
translated by 谷歌翻译
在许多天文学应用中,普遍需要在源任务上构建大小单双倍投公式并随后在新目标任务上调整这种大小单双倍投公式的能力。这个问题通常被称为机器学习中的转移学习,其中域适应是一种流行的场景。一个例子是建立光谱数据的预测大小单双倍投公式以识别超新星IA,然后尝试使这种大小单双倍投公式适应光度数据。在本文中,我们提出了一种新的领域适应方法,它不依赖于源和目标分布的接近程度。相反,我们只是假设跨域的大小单双倍投公式复杂性具有很强的相似性,并使用主动学习来对源示例进行依赖性处理。我们的工作导致了一种新的表述,即使用理论学习界限作为经验误差函数的可能性;结果是从泛化误差到似然估计的新颖映射。使用两个真正的天文问题,超新星分类和火星地貌识别的结果,显示了我们的方法的两个主要优点:提高准确性和计算成本的实质性节省。
translated by 谷歌翻译
深度学习技术的应用导致了机器学习大小单双倍投公式的显着改进。本文提供了许多Facebook社交网络服务中使用的深度学习大小单双倍投公式的详细描述。我们提出了大小单双倍投公式的计算特征,描述了针对现有系统的高性能优化,指出了它们的局限性,并为未来的通用/加速推理硬件提出了建议。此外,我们强调需要更好地协同设计算法,数字和计算平台,以应对通常在数据中心运行的工作负载的挑战。
translated by 谷歌翻译