本文介绍了一种新的开放式域名问答框架,其中猎犬和读者互相迭代地互动。框架与机器读取大小单双倍投公式的体系结构无关,只需要访问读取器的令牌级隐藏表示。 Theretriever使用快速最近邻搜索来缩放到包含数百万个段落的语料库。门控循环单元在读取器状态的每个步进条件下更新查询,并且重新构造的查询用于通过检索器对段落进行排序。我们进行分析并显示有用的互动有助于从信息中检索信息性段落。最后,我们展示了我们的多步推理框架在应用于各种大型开放域数据集的两个广泛使用的读者架构Dr.DrQA和BiDAF时带来了一致的改进 - TriviaQA-unfiltered,QuasarT,SearchQA和SQuAD-Open。
translated by 谷歌翻译
尽管存在大量的事实信息库,但跨维信息图(例如维基数据和谷歌知识图)只能为实体提供简短的概要描述。这样的描述可以简要地识别实体的最明显的特征,使得读者能够近乎即时地了解他们所呈现的实体类型。它们还可以帮助完成诸如命名实体化同义词,本体类型确定和回答实体查询之类的任务。给知识图中快速增加的实体数量,从基础事实信息中完全自动化合成简洁的文本描述是必不可少的。为此,我们提出了一种新颖的事实 - 序列编码器 - 解码器大小单双倍投公式,其具有合适的复制机制,以生成对实体的简明和精确的文本描述。在深入评估中,我们证明我们的方法明显优于最先进的替代方案。
translated by 谷歌翻译
无线互联网接入使大量异构应用程序共享相同的资源。然而,当前无线边缘网络能够满足最差或平均情况下的性能,缺乏最佳服务于多年会话的灵活性。同时,软件可重新配置的基础设施已变得越来越主流,以至于可以在通信栈的多个层上实现动态的每个数据包和每个流的决策。利用这种可重新配置性需要设计一个可以配置配置的系统,测量对应用程序性能的影响(体验质量),并自适应地选择新配置。有效地,该反馈回路是马尔可夫决策过程,其参数是未知的。这项工作的目标是设计,开发和演示QFlow,它将这个反馈循环实例化为强化学习(RL)的应用。我们的上下文是可重新配置(优先级)排队,我们使用流行的视频流应用作为我们的用例。我们开发了基于大小单双倍投公式和基于大小单双倍投公式的RL方法,这些方法适用于确定在每个决策周期中应将哪些客户端分配给哪个队列的问题。通过实验验证,我们展示了基于RL的QFlow控制策略如何能够安排合适的客户端在高负载情况下优先排序以超越现状,以及最佳知识解决方案,QoE提升超过25%,以及完美的QoE得分为5%,超过85%的时间。
translated by 谷歌翻译
当今世界的大量信息存储在结构化和半结构化的知识库中。查询这些数据库的高效且简单的方法是必不可少的,不能仅限于那些在正式查询语言中具有专业知识的人。语义解析领域涉及将自然语言话语转换为可在知识库上轻松执行的逻辑形式。在本次调查中,我们研究了语义分析系统的各个组成部分,并讨论了从基于初始规则的方法到当前神经方法到程序合成的突出工作。我们还讨论了使用不同级别的监视操作的方法,并突出了学习这些系统所涉及的关键挑战。
translated by 谷歌翻译
我们提出了一种神经机器读取大小单双倍投公式,它从程序文本构建动态知识图。它针对所描述的过程的每个步骤循环地构建这些图,并使用它们来跟踪参与实体的演变状态。我们利用并扩展最近提出的机器阅读理解(MRC)大小单双倍投公式来查询实体状态,因为这些状态通常在文本的跨度中传递,并且MRC大小单双倍投公式执行良好的不提取的以实体为中心的跨度。正如我们经验证明的那样,我们的大小单双倍投公式构造的显式,结构化和不断发展的知识图表示可以用于下行问题回答任务,以提高文本的机器理解能力。在最近提出的PROPARA数据集(Dalvi et al。,2018)的两个理解任务中,我们的大小单双倍投公式实现了最先进的结果。我们进一步表明,我们的大小单双倍投公式在RECIPES数据集上具有竞争力(Kiddon等,2015),表明它可能是普遍适用的。我们提供了一些证据,证明大小单双倍投公式的知识图有助于它对其预测施加常识约束。
translated by 谷歌翻译
大小单双倍投公式 The recent work of Clark et al. (2018) introduces the AI2 Reasoning Challenge (ARC) and the associated ARC dataset that partitions open domain, complex science questions into an Easy Set and a Challenge Set. That paper includes an analysis of 100 questions with respect to the types of knowledge and reasoning required to answer them; however, it does not include clear definitions of these types, nor does it offer information about the quality of the labels. We propose a comprehensive set of definitions of knowledge and reasoning types necessary for answering the questions in the ARC dataset. Using ten annotators and a sophisticated annotation interface, we analyze the distribution of labels across the Challenge Set and statistics related to them. Additionally , we demonstrate that although naive information retrieval methods return sentences that are irrelevant to answering the query, sufficient supporting text is often present in the (ARC) corpus. Evaluating with human-selected relevant sentences improves the performance of a neu-ral machine comprehension model by 42 points.
translated by 谷歌翻译