机器学习正在从艺术和科学转变为可供每个开发人员使用的技术。在不久的将来,每个平台上的每个应用程序都将包含训练有素的大小单双倍投公式,以编码开发人员无法创作的基于数据的决策。这提出了一个重要的工程挑战,因为目前数据科学和建模在很大程度上与标准软件开发过程脱钩。这种分离使得在应用程序内部的机器学习能力不必要地变得困难,并且进一步阻碍了开发人员将MLin置于首位。在本文中,我们介绍了ML .NET,这是一个在过去十年中在Microsoft开发的框架,用于应对在大型软件应用程序中轻松发布机器学习大小单双倍投公式的挑战。我们提出了它的架构,并阐明了形成它的应用程序需求。具体而言,我们引入了DataView,它是ML .NET的核心数据抽象,它可以有效地,一致地捕获完整的预测管道,并在训练和推理生命周期中进行。我们结束了论文,对ML .NET进行了令人惊讶的有利的性能研究,与更多的接受者相比,并讨论了一些经验教训。
translated by 谷歌翻译
欧几里德数据嵌入从根本上限制了他们捕捉潜在语义结构的能力,这些结构不需要符合欧几里德的空间假设。在这里,我们考虑一种替代方案,它将数据作为离散概率分布嵌入Wasserstein空间,赋予最佳传输度量。 Wasserstein空间比欧氏空间更大,更灵活,因为它们可以成功地嵌入更多种度量结构。我们通过学习嵌入来捕获嵌入式分布之间的Wasserstein距离中的语义信息来利用这种灵活性。我们根据经验检验了我们学习的Wasserstein嵌入物的表征能力,表明它们可以嵌入各种各样的度量结构,其变形小于等效的Euclideanembedding。我们还研究了嵌入字的应用,展示了Wasserstein嵌入的独特优势:我们可以直观地显示高维嵌入,因为它是低维空间的概率分布。这消除了对诸如用于可视化的t-SNE的降维技术的需要。
translated by 谷歌翻译
点云登记是应用于计算机视觉的torobotics,医学成像和其他应用的关键问题。这个问题涉及从一个点云到另一个点云的刚性转换,以便这样做。迭代最近点(ICP)及其变体为此任务提供了简单的,易于实现的迭代方法,但这些算法可以收敛到虚假的局部最优。为了解决ICP管道中的局部最优和其他困难,我们提出了一种基于学习的方法,标题为深度最近点(DCP),受到最近计算机视觉和自然语言处理技术的启发。我们的大小单双倍投公式由三部分组成:点cloudembedding网络,基于注意力的模块与指针生成层相结合,近似组合匹配,以及可微分奇异值分解(SVD)层,以提取最终的刚性变换。在ModelNet40数据集上端对端地模拟我们的大小单双倍投公式,并在几个设置中显示它比ICP,其变体(例如Go-ICP,FGR)和最近提出的基于学习的方法PointNetLK表现更好。除了提供最先进的注册技术之外,我们还评估了我们学习的特征转移到看不见的对象的适用性。我们还提供了对我们学习大小单双倍投公式的初步分析,以帮助了解特定领域和/或全局特征是否有助于严格注册。
translated by 谷歌翻译
人工智能(AI)有机会彻底改变美国国防部(DoD)和情报界(IC)应对不断演变的威胁,数据泛滥和快速行动过程的挑战。开发端到端的人工智能系统需要并行开发不同的部分,这些部分必须协同工作才能提供决策者,作战人员和分析师可以使用的能力。这些部分包括数据收集,数据调节,算法,计算,强大的人工智能和人机组合。虽然今天流行的媒体围绕着算法和计算的进步,但大多数现代人工智能系统都利用了许多不同领域的进步。而且,虽然某些组件可能不像其他组件那样对最终用户可见,但我们的经验表明,这些组件中的每一个都是相互关联的。组件在AI系统的成功或失败中起着重要作用。本文旨在重点介绍端到端AI系统中涉及的许多这些技术。本文的目的是为读者提供学术界,行业界和政府的学术,技术细节和最新亮点的概述。在可能的情况下,我们会指出可用于进一步阅读和理解的相关资源。
translated by 谷歌翻译
域适应提供了一组功能强大的大小单双倍投公式训练技术,可以提供特定于域的训练数据和具有未知相关性的补充数据。当用户需要使用来自不同来源,不同质量或不同时间范围的数据开发大小单双倍投公式时,这些技术非常有用。我们构建了CrossTrainer,一个用于实际领域适应的系统。 CrossTrainer利用损失重新加权,在我们的实证分析中为各种数据集提供始终如一的高大小单双倍投公式精度。然而,损失重新加权对于调整昂贵的权重超参数的选择是敏感的。我们利用损失重新加权的独特属性开发优化,允许CrossTrainer输出准确的大小单双倍投公式,同时与初始超参数搜索相比改善训练时间。
translated by 谷歌翻译
将大小单双倍投公式训练为高端性能需要大型标记数据集的可用性,这些数据集的获取成本很高。我们的工作目标是自动合成与下游任务相关的标记数据集。我们提出Meta-Sim,它学习合成场景的生成大小单双倍投公式,并通过图形引擎获取图像以及相应的地面实况。我们使用神经网络对我们的数据集生成器进行参数化,该神经网络可以修改从概率场景图获得的场景图的属性,从而最小化其渲染输出和目标数据之间的分布差距。如果真实数据集带有小的标记验证集,我们还旨在优化元目标,即下游任务性能。实验表明,该方法可以大大提高人工工程概率场景语法的内容生成质量,无论是定性还是定量,都可以通过对下游任务的性能来衡量。
translated by 谷歌翻译
在本文中,我们解决了利用许多可移动物体进行视觉引导的重新布置规划的问题,即,找到一系列动作以将一组物体从初始布置移动到期望的布置,同时直接依赖于来自相机的视觉输入。我们引入了一种有效且可扩展的重排规划方法,解决了大多数现有方法的基本限制,这些方法不能很好地扩展对象的数量。这种提高的效率使我们能够在闭环中使用规划,通过可视工作空间分析来构建一个可以重现的强大重排框架从错误和外部扰动。这项工作的贡献有三个方面。首先,我们开发了类似AlphaGo的重排计划策略,使用重排计划示例训练的apolicy提高蒙特卡罗树搜索(MCTS)的效率。我们凭经验证明,所提出的方法可以很好地适应对象的数量。其次,为了展示计划器在真实机器人上的效率,我们采用了最先进的无校准视觉识别系统,该系统输出单个物体的位置并对其进行扩展以估计包含多个物体的工作空间的状态。第三,我们通过在真实的UR-5机器人手臂上进行几项实验来验证整个管道,解决了具有多个可移动物体的重排计划问题,并且仅需要几秒钟的计算来计算计划。我们还凭经验证明机器人可以成功地从工作空间中的错误和扰动中恢复。我们工作的源代码和预训练大小单双倍投公式可以通过以下网址获得://github.com/ylabbe/rearrangement-planning
translated by 谷歌翻译
大小单双倍投公式 Purpose: To propose and evaluate a new MRI reconstruction method named LORAKI that trains an autocalibrated scan-specific recurrent neural network (RNN) to recover missing k-space data. Methods: Methods like GRAPPA, SPIRiT, and AC-LORAKS assume that k-space data has shift-invariant autoregressive structure, and that the scan-specific autoregression relationships needed to recover missing samples can be learned from fully-sampled autocalibration (ACS) data. Recently, the structure of the linear GRAPPA method has been translated into a nonlinear deep learning method named RAKI. RAKI uses ACS data to train an artificial neural network to interpolate missing k-space samples, and often outperforms GRAPPA. In this work, we apply a similar principle to translate the linear AC-LORAKS method (simultaneously incorporating support, phase, and parallel imaging constraints) into a nonlinear deep learning method named LORAKI. Since AC-LORAKS is iterative and convolutional, LORAKI takes the form of a convolutional RNN. This new architecture admits a wide range of sampling patterns, and even calibrationless patterns are possible if synthetic ACS data is generated. The performance of LORAKI was evaluated with retrospectively un-dersampled brain datasets, with comparisons against other related reconstruction methods. Results: Results suggest that LORAKI can provide improved reconstruction compared to other scan-specific autocalibrated reconstruction methods like GRAPPA, RAKI, and AC-LORAKS. Conclusion: LORAKI offers a new deep-learning approach to MRI reconstruction based on RNNs in k-space, and enables improved image quality and enhanced sampling flexibility.
translated by 谷歌翻译
人们普遍认为,子模块函数 - 以及$ \ gamma $ -weakly子模块函数的更通用类 - 只能在非负性假设$ f(S)\ geq 0 $下进行优化。在本文中,我们展示一旦函数表示为差异$ f = g - c $,其中$ g $是单调的,非负的,$ \ gamma $ -weakly子模块,$ c $是非负模块,然后可以获得强近似保证。我们提出了一个算法,在$ k $ -cardinality约束下最大化$ g - c $,产生一个随机可行集$ S $,使得$ \ mathbb {E} \ left [g(S) - c(S)\ right] \ geq(1 - e ^ { - \ gamma} - \ epsilon)g(OPT) - c(OPT)$,其运行时间为$ O(\ frac {n} {\ epsilon} \ log ^ 2 \ frac {1 } {\ epsilon})$,即独立于$ k $。我们通过描述具有相同近似保证和更快$ O(\ frac {n} {\ epsilon} \ log \ frac {1} {\ epsilon})$运行时的算法,将这些结果扩展到无约束设置。我们算法的主要技术有两个方面:使用替代目标,在整个算法中改变$ g $和$ c $之间的相对重要性,以及几何扫描可能的$ \ gamma $值。我们的算法保证由硬度结果补充,表明没有通过值oracle访问$ g $的多项式时间算法可以做得更好。我们通过将它们应用于Boston Housingdataset上的实验设计并在Email EU数据集上引导顶点覆盖来实证地证明了算法的成功。
translated by 谷歌翻译
图形和视觉中的许多任务都需要使用稀疏参数集转换形状的机器;这些表示有助于渲染,编辑和存储。然而,当源数据嘈杂时,艺术家和工程师经常手动构建这样的表示,这是一个繁琐且可能耗时的过程。虽然深度学习中的进展已成功应用于嘈杂的几何数据,但迄今为止生成参数形状的任务一直难以实现。因此,我们提出了一个使用深度学习来预测参数化原语的新框架。我们使用距离场来在形状参数(如控制点)和栅格网格上的输入数据之间进行转换。我们展示了对2D和3D任务的效果,包括字体矢量化和表面抽象。
translated by 谷歌翻译