我们提出了一种新的贝叶斯非参数方法来学习非欧几里德域上的翻译不变关系。结果图卷积高斯过程可以应用于机器学习中的问题,其中输入观察是具有通用图上的域的函数。这些大小单双倍投公式的结构允许高维输入,同时保持可表达性,如卷积神经网络的情况。我们将图形卷积高斯过程应用于图像和三角网格,展示了它们的多功能性和有效性,与现有方法相比,尽管是相对简单的大小单双倍投公式。
translated by 谷歌翻译
在本报告中,我们回顾了基于记忆的元学习作为建筑样本有效策略的工具,该策略从过去的经验中学习以适应目标类中的任何任务。我们的目标是为读者提供此工具的概念基础,以构建在陆域上运行的新的可扩展代理。为此,我们提出了基本的算法模板,用于建立最佳预测器和强化学习器,其行为就好像它们具有允许它们有效地利用任务结构的概率大小单双倍投公式。此外,我们在贝叶斯框架内重建基于内存的元学习,显示元学习策略接近最优,因为它们分摊贝叶斯过滤数据,其中适应在内存动态中实现为具有足够统计数据的状态机。从本质上讲,基于记忆的学习 - 学习将概率序贯推理的难题转化为回归问题。
translated by 谷歌翻译
软件定义的超曲面(SDM)包括称为元原子的基本元素的密集拓扑,在智能面板技术中对表面电流施加最高程度的控制。因此,它们可以以复杂的方式改变电磁(EM)波,改变它们的方向,功率,频谱,极性和相位。定义明确的软件接口允许将这些功能应用于波形和互联网络SDM,同时抽象出基础物理。部署在区域内的对象(例如布局规划墙)上的SDM网络创建可编程无线环境(PWE),其中具有完全可定制的波传播。这项工作研究使用机器学习来配置这样的环境,以使用户受益。该方法包括将无线传播建模为定制的,可解释的,反向传播的神经网络,其中SDM元素作为节点并且它们的交叉作为链接。在训练期之后,网络学习SDM的传播基础并将其配置为便于其附近的用户的通信。
translated by 谷歌翻译
事实证明,半监督学习是利用未标记数据来减轻对大型标记数据集的依赖的有力范例。在这项工作中,我们统一了当前用于半监督学习的主要方法,产生了一种新算法MixMatch,它通过猜测低熵标签来处理数据增强的未标记示例,并使用MixUp混合标记和未标记数据。我们展示了MixMatch通过许多数据集和标记数据量的大数据获得最先进的结果。例如,在具有250个标签的CIFAR-10上,我们将错误率降低了4倍(从38%降至11%),在STL-10上降低了2倍。我们还演示了MixMatch如何帮助实现更好的准确性 - 隐私折衷以实现差异隐私。最后,我们进行了一项消融研究,以分辨出MixMatch的哪些组件对其成功最重要。
translated by 谷歌翻译
来自EEG的癫痫发作检测是一个具有挑战性且耗时的临床问题,其将受益于自动算法的开发。 EEGs可以被视为结构时间序列,因为它们是多变量时间序列,其中导线在患者头皮上的放置提供了关于相互作用结构的预先信息。通常用于时间序列的深度学习大小单双倍投公式不提供利用结构信息的方法,但这在结构时间序列的大小单双倍投公式中是期望的。为了应对这一挑战,我们提出了时间图卷积网络(TGCN),利用结构信息并且参数相对较少的大小单双倍投公式.TGCN应用了在时间和空间上定位和共享的特征提取操作,从而在任务中提供有用的归纳偏差。期望类似的特征在不同的序列中具有辨别力。在我们的实验中,我们关注最重要的检测方法,并证明TGCN与其他任务中已经证明是最先进的相关大小单双倍投公式的性能相匹配。此外,我们通过探索帮助临床医生的方法来研究TGCN的可解释性优势。确定何时发生精确癫痫发作,以及大多数参与的大脑部位。
translated by 谷歌翻译
模拟机器学习硬件平台承诺比数字机器学习硬件平台更快,更节能。波动物理学,如发现的声学和光学,是构建模拟处理器变化信号的自然候选者。在这里,我们确定了波动学的动力学与递归神经网络中的计算之间的映射。该映射表明,可以使用标准的神经网络训练技术训练物理波系统以学习时间数据中的复杂特征。作为演示,我们表明,反向设计的非均匀介质可以通过这种介质的简单波传播对原始音频数据进行元音分类,从而实现与循环神经网络的标准数字实现相当的性能。这些发现为一类新的模拟机器学习平台铺平了道路,能够在其原生域中快速有效地处理信息。
translated by 谷歌翻译
深度学习大小单双倍投公式在几个问题上表现出色,但是他们的培训过程往往需要大量的计算和人力资源用于培训和标签,限制了可以解决的问题类型。因此,需要小标记训练集的有效训练方法的设计是一个重要的研究方向,可以更有效地利用资源。为解决这个问题而设计的两种方法尤其令人感兴趣:数据增强和主动学习。数据增加通过人工生成新的训练点来实现这一目标,而主动学习则依赖于选择由甲骨文标记的未标记训练样本的“信息量最大”子集。虽然在实践中是成功的,但数据增强可能浪费计算资源,因为它不加区分地生成不保证提供信息的样本,并且主动学习选择可能不足以用于训练过程的一小部分信息样本(来自大量注释的集合)。在本文中,我们提出了一种贝叶斯生成主动深度学习方法,将主动学习与数据增强相结合 - 我们提供理论和经验证据(MNIST,CIFAR - $ \ {10,100 \} $和SVHN),我们的方法有更有效的培训和更好的分类结果比数据增强和主动学习。
translated by 谷歌翻译
我们介绍了一组九个挑战任务,测试理解功能词。这些任务是通过结构化突变数据集的句子来创建的,以便能够理解特定类型的功能词(例如,介词,wh-words)。使用这些探测任务,我们探索了各种预训练目标对句子编码器(例如,语言建模,CCG超级标准和自然语言推理(NLI))对学习代表的影响。我们的结果表明,对CCG进行预训练 - 我们最常用的语法 - 在我们的探究任务中平均表现最佳,这表明句法知识有助于词汇理解。语言建模也显示出强大的性能,支持其广泛用于预训练最先进的NLP大小单双倍投公式。总的来说,没有预训练目标支配董事会,我们的功能词探测任务突出了预训练目标之间的几个直观差异,例如,NLI有助于理解否定。
translated by 谷歌翻译
学习速度和准确性是加强学习问题的普遍关注点。在本文中,我们从优化偏差 - 方差权衡的角度研究了TD({\ lambda})中使用的跟踪衰减参数{\ lambda}的元学习方法。我们提出了anoff-policy适用的元学习{\ lambda}参数的方法,通过优化有效增量更新的元目标。在适当的假设下,所提出的信赖区域风格算法被证明与优化整体目标forall状态的偏差 - 方差权衡是相同的。在实验中,我们验证了所提出的方法MTA的有效性,与比较的方法和基线相比,它显示出更快,更准确的学习模式。
translated by 谷歌翻译
大小单双倍投公式 由移动物体或未对准引起的重影伪像是动态场景的高动态范围(HDR)成像中的关键挑战。先前的方法首先在合并它们之前使用光流注册输入的低动态范围(LDR)图像,这些图像容易出错并导致结果中的重影。 Avery最近的工作试图通过带有连接的深度网络来绕过光流,然而,这仍然会受到重影运动的影响。为了避免来自源的重影,我们提出了一种novelattention-guided端到端深度神经网络(AHDRNet)来产生高质量的无重影HDR图像。与以前直接堆叠LDR图像或合并特征的方法不同,我们使用注意模块根据参考图像指导合并。注意模块自动抑制由未对准和饱和引起的不期望的分量,并且增强非参考图像中期望的精细细节。除了注意大小单双倍投公式之外,我们还使用扩张残差密集块(DRDB)来充分利用层次特征,并增加感知域以消除丢失的细节。所提出的AHDRNet是一种基于非流量的方法,可以避免光流估计误差产生的伪影。不同数据集上的实验表明,所提出的AHDRNet可以实现最先进的定量和定性结果。
translated by 谷歌翻译