所有文章 > 正文

引用量 TOP 10 的ACL历届会议“最佳论文”

作者: 小心肝

时间: 2020-07-03 15:10

2001-2018 年高被引的 ACL 最佳论文

ACL 会议(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域最高级别的学术会议,由计算语言学协会主办,每年一届。ACL 会议论文的接受率一直维持在 25% 左右,其中会经过严格的筛选和评审选出本届会议最佳论文,一般只有一篇。人工智能在近 20 年来获得了爆炸式的发展,而作为人工智能领域之一的自然语言处理,在 20 年来受研究人员关注和看好的发展趋势是怎么样的呢?我们对近 20 年来的 ACL 历届最佳论文按引用量给出了 2001-2018 年高被引的 ACL 最佳论文,以管窥一豹自然语言处理领域的发展和变迁。

点击查看 AMiner 开发的 ACL 2020 论文查询工具

Accurate Unlexicalized Parsing (2003)

精确非词汇化解析  引用:3046

作者:Dan Klein、Christopher D.Manning

机构:斯坦福大学

简介:作者在本文中展示了非词汇化的 PCFG(概率上下文语法无关)能比以往展示的解析的更精确。通过使用简单的、语言学驱动的状态分解,它打破了传统 treebank 语法中潜在的错误独立性假设,其性能达到了 86.36%(LP/LR F PCFG 机型),并且惊人地接近了目前的最新水平。这个结果有潜在的用途,除了建立一个关于非词汇化模型最大可能精度的强下限之外:非词汇化的 PCFG 比更复杂的词汇模型更紧凑、更容易复制、更容易解释,而且解析算法更简单、更广为理解、渐近复杂度更低,更容易优化。

A hierarchical phrase-based model for statistical machine translation(2005)

统计机器翻译基于短语的层次模型   引用:1291

作者:David Chiang

机构:马里兰大学 

简介:分层短语对模型,可以学习没有任何语法注释的训练数据,与现有的基于短语的系统相比,显著提高了翻译的准确性。本文介绍了一个基于统计短语的翻译模型,该模型使用层次短语-包含子短语的短语。该模型在形式上是同步的上下文无关文法,但可从没有任何语法信息的 bitext 中学习。因此,可以将其视为向没有语言学承诺的基于语法的翻译系统形式机器的转变。在作者的实验中,使用 BLEU 作为度量标准,基于分层短语的模型比基于最先进的系统 Pharoah 实现了 7.5% 的相对改进。

Discriminative training and maximum entropy models for statistical machine translation (2002)

统计机器翻译中的差异化训练与最大熵模型     引用:1259

作者:Franz Josef Och、Hermann Ney

机构:亚琛工业大学

简介:作者提出了一个基于直接最大熵模型的自然语言统计机器翻译的框架,其中包含了广泛使用的源-信道方法作为特例。所有知识源都被视为特征函数,它取决于源语言语句、目标语言语句和可能的隐藏变量。这种方法允许通过添加新特征轻松扩展基准机器翻译系统。作者表明使用这种方法可以显着改善基准统计机器翻译系统。

Semantic taxonomy induction from heterogenous evidence(2006)

归纳自异类证据的语义分类学    引用:487

作者:Rion Snow、Daniel Jurafsky、Andrew Y.Ng

机构:斯坦福大学

简介:作者提出了一种新的归纳语义分类法的算法。先前用于分类归纳的算法通常集中于独立的分类器,基于手工构造或自动发现的文本模式来发现新的单一关系。相比之下,本文的算法可以灵活地结合来自异类关系的多个分类器的证据,从而利用单词的坐标项知识来确定其上位词,从而优化分类法的整个结构,反之亦然。作者将此算法应用于消除语义歧义的名词下位词获取的问题,在该问题中,作者将上位词的预测和术语分类器与现有知识分类法(WordNet 2.1)中的知识相结合。以 84% 的精度将 10,000 个新的同义词集添加到 WordNet 2.1,与使用相同组件分类器的非联合算法相比,相对误差减少了 70%。最后,文中证明,使用此算法构建的分类法在独立的上位词对测试集上显示出比 WordNet 2.1 相对 F 分数提高了 23%。

Fast and Robust Neural Network Joint Models for Statistical Machine Translation(2014) 

统计机器翻译的快速且鲁棒的神经网络联合模型    引用:437

作者:Jacob Devlin,、Rabih Zbib,、Zhongqiang Huang、Thomas Lamar,、Richard Schwartz、John Makhoul

机构:雷神 BBN 技术公司

简介:作者提出了一个神经网络联合模型(NNJM)的新公式,在原先的神经网络语言模型(NNLM)增加了源上下文窗口,提出的模型的纯词汇化的且能被集成到 MT 解码器,另外作者提供了具有更多显著附加提升的模型变种。尽管该模型非常简单,但是却获得了丰富的经验结果。在 NIST OpenMT12 阿拉伯语-英语条件下,NNJM 功能在功能强大、功能丰富的基准(已经包含仅目标NNLM)的基础上产生了+3.0 BLEU 的增益。在与 Chi-ang(2007)最初的 Hiero 实现相当的简单基准之上,NNJM 功能还产生了 +6.3 BLEU 的增益。此外,作者描述了两种新颖的技术来克服 MT 解码中使用 NNLM 样式模型的历史高成本。这些技术使NNJM的计算速度提高了 10,000 倍,使模型的速度与标准后退 LM 一样快。

6  Finding predominant word senses in untagged text(2004)

在未标记的文本中寻找主要的词义     引用:412

作者:Diana McCarthy、RobKoeling、JulieWeeds、JohnCarroll

机构:  苏塞克斯大学

简介:在词义歧义消除(WSD)中,选择最常识的启发式方法非常有用,因为一个词义的分布通常会偏斜。除了不考虑语境这一事实之外,使用主要的或第一感觉启发式方法的问题还在于,它假设了一些手工标记的数据。尽管有些语言提供了一些带有手工标记的语料库,但人们希望单词(尤其是主题词)的感觉频率分布取决于所考虑文本的体裁和领域。作者介绍了使用从原始文本语料库和 WordNet 相似性软件包中获取的同义词库来自动查找主要名词意义的工作。在 SENSEVAL-2 英语全单词任务的名词中,获得的主要感官可提供 64% 的精度。本文的方法不需要任何带有手工标记的文本,例如 SemCor,因此是一个非常有希望的结果。此外,作者证明了他们的方法从两个特定领域的语料库中发现了合适的词义。

Immediate-head parsing for language models (2001)

语言模型的瞬时头部解析   引用:397

作者:Eugene Charniak

机构:布朗大学

简介:作者基于“瞬时头部”解析器提供了两种语言模型,该解析器将所有事件都限制在 c 的头部下方。尽管所有最准确的统计解析器都是瞬时头部解析的,但以前的语法语言模型都没有使用此技术。这两种模型的困惑都大大改善了 Trigram 模型的基线以及以前最好的基于语法的语言模型。对作者的模型这些改进分别为 24% 和 14% 达到了更好的水平。作者的研究还表明,对基础解析器的改进应该可以显着改善模型的困惑度,并且即使在短期内,瞬时头部语言模型也有很大的改进潜力

8 Fast decoding and optimal decoding for machine translation(2001)

机器翻译的快速解码和最优解码   引用:320

作者:Ulrich Germann、Michael Jahr、Kevin Knight、Daniel Marcu

机构:南加利福利亚大学、斯坦福大学

简介:良好的解码算法对于任何统计机器翻译系统的成功都是至关重要的。解码器的工作是根据先前学习的参数集(以及用于组合它们的公式)来找到最有可能的翻译。由于可能的翻译空间非常大,典型的解码算法只能检查其中的一部分,因此有可能错过良好的解决方案。在本文中,作者将传统的基于堆栈的解码算法的速度和输出质量与两个新的解码器进行了比较:快速贪婪解码器和将解码视为整数编程优化问题的慢速最优解码器。

Learning Synchronous Grammars for Semantic Parsing with Lambda Calculus(2007)

用 Lambda 演算学习语义解析的同步语法    引用:292

作者:Yuk Wah Wong 、Raymond J. Mooney

机构:德克萨斯大学奥斯汀分校

简介:本文给出了对能生成逻辑形式的同步语法的学习第一个实证结果。使用统计机器翻译技术,在给定一组训练语句及其正确逻辑形式的情况下,可以学习基于以-运算符增强的同步上下文无关语法的语义解析器。结果表明,解析器是迄今为止数据库查询域中性能最佳的系统。

10 A New String-to-Dependency Machine Translation Algorithm with a Target Dependency Language Model (2008)

目标依赖语言模型的一个新的字符串到依赖的机器翻译算法      引用:280

作者:LibinShen、JinxiXu、RalphWeischedel

机构:BBN 技术公司

简介:在本文中,作者提出了一种用于统计机器翻译的新型字符串到依赖的算法。在这个新框架下,本文在解码过程中采用了目标依赖语言模型来开发长距离单词关系,而传统的 n-gram 语言模型则无法提供这种功能。作者的实验表明,与 NIST 04 中英文评估套件上的标准分层字符串到字符串系统相比,字符串到依赖解码器在 BLEU 方面提高了 1.48 分,在 TER 上提高了 2.53 点。

往期回顾:

如何让AI理解数学?Facebook神经网络通过“语言翻译”求解数学难题

这是一项正经研究:伴侣同床睡,睡眠质量更好,还有益心理健康,甚至能增强记忆力

400人,每人63万元!2020年度“博新计划”名单公布

[关于转载]:本文为“AMiner”官网文章。转载本文请联系原作者获取授权,转载仅限全文转载并保留文章标题及内容,不得删改、添加内容绕开原创保护,且文章开头必须注明:转自“AMiner”官网。谢谢您的合作。

二维码 扫码微信阅读
推荐阅读 更多