• 中文 (中国)
  • English
  • 中文信息学会论文预讲会顺利召开

    2019年1月 12日,由中文信息学会青年工作委员会主办,北京航空航天大学大数据科学与脑机智能高精尖创新中心承办的论文预讲会在北航成功举办。

    本次论文预讲会邀请了来自全国各地13所高校与研究单位的老师和同学,分享他们在第33届国际人工智能大会(AAAI-19)中被接收的24篇论文,内容覆盖有知识图谱、问答系统、机器翻译、信息抽取、自然语言处理模型以及文本生成等多个领域的最新研究成果。预讲会吸引了来自92所高校、科研单位以及互联网公司240多名老师和学生来参会交流,同时1200多名观众在线观看了PaperWeekly对本次预讲会的线上直播。

    预讲会首先由北京航空航天大学计算机学院老师张日崇,中文信息学会青年工作委员会主任刘康分别致辞欢迎。

    1lk

    青工委主任刘康开幕式致辞

    会议议程整体分为四个Session,每个 Session包含 5-7 个报告。讲者们在报告中深入讲解他们的研究工作,在海报展示环节与现场参会者进行了长时间的互动和讨论,现场的汇报与交流十分精彩。

    2xc

    预讲会现场

    3jz

    讲者汇报

    4jz

    讲者汇报

    5hb

    海报环节观众与讲者交流

    6hb

    海报环节观众与讲者交流

    为期1天的中文信息学会论文预讲会,在北航计算机学院张日崇老师的闭幕致辞中圆满落幕。

    7hy

    预讲会讲者合影

    附:报告信息(相关slide与poster下载请访问https://github.com/zhiyuanhubj/AAAI-19_slide_poster)

    论文速览列表

    Session 1:知识与应用

    Dynamic Explainable Recommendation based on Neural Attentive Models

    讲者:清华大学 陈旭

    推荐系统的可解释性最近引起了学术界和工业界的广泛关注,本文提出了动态的可解释推荐算法,旨在根据用户的动态喜好给出更为合理和准确的解释。

     

    Jointly Extracting Multiple Triplets with Multilayer Translation Constraints

    讲者:国防科技大学 谭真

    论文主要提出了一个实体关系联合抽取模型用于解决非结构化文本数据中多三元组抽取的问题,论文提出了一种三段式标签框架用于过滤句子中包含的无效实体,在此基础上添加了一个多层迁移约束来抽取实体对之间的关系。通过实验验证,模型在单三元组和多三元组的抽取上都表现出了较好的效果。

     

    Cooperative Multimodal Approach to Depression Detection in Twitter

    讲者:复旦大学 朱亮

    这篇文章提出了一种同时利用用户的文字和图片,并利用多智能体强化学习的机制来去除噪声的模型COMMA,来进行社交媒体上的抑郁症检测。

     

    LENA: Locality-Expanded Neural Embedding for Knowledge Base Completion

    讲者:北京航空航天学大学 孔繁爽

    这篇文章假设三元组是否是事实不仅取决于该三元组本身, 还包括实体和关系在更大的图邻域中的嵌入,同时对于同一三元组,不同邻居三元组所蕴含的信息不同。LENA模型构建注意力机制以软选择图邻域中的相关信息,从而抑制邻域中的无关信号,强化有益信息。本文在四个标准数据集上进行了测试,实验表明,LENA链接预测综合表现较好,优于现有大部分模型

     

    A Hierarchical Framework for Relation Extraction with Reinforcement Learning

    讲者:清华大学 高信龙一

    这篇文章提出了一种层次化框架,将关系抽取问题分为关系类型检测和实体表述抽取两个子任务,并结合层次化强化学习,提高关系抽取整体的性能。该框架从检测关系类型出发,上层策略依序扫描整句句子用于探测语句中是否包含某种关系类型。每当上层收集到足够的信息并检测到一种关系,下层策略根据所探测到的关系类别,提取句中相应的实体表述。实验表明我们提出的方法能有效地抽取句子中带有重叠的多组关系,并加强了两层策略之间的关联。

     

    Exploiting the Ground-Truth: An Adversarial Based Knowledge Distillation Approach for Event Detection

    讲者:中科院自动化所 刘健

    这篇文章研究如何挖掘标准标注信息来提高事件识别任务的效果。现有的方法首先利用外部工具进行实体识别,实体识别的结果用于事件识别,他们受到错误蔓延问题的影响。在这篇文章中,作者提出了一种基于对抗模仿学习的事件识别框架。首先利用标准标注信息构建标准知识向量,然后构建不含标注信息的知识向量,利用判别器去区分这两种向量,同时更新编码器参数。编码器与判别器形成对抗学习,联合提升效果。实验表明这种方法可以在一定程度上提升事件识别任务的效果。

     

    Logic Attention Based Neighborhood Aggregation for Inductive Knowledge Graph Embedding

    讲者:腾讯AI Lab 韩家龙

    知识图谱嵌入的目的是用低维向量建模实体和关系,用于下游任务。已有方法大多要求所有实体在训练时可见,这在每天更新的知识库中是不切实际的。这篇文章使用同时训练邻域聚集模型的方式来去除这种限制,并提出一种基于规则和注意力机制的聚集模型,即逻辑注意力网络(LAN)。在两个知识图谱补全任务上,LAN被证明优于传统聚集模型。

     

    Session 2:机器翻译与问答系统

    Unsupervised Neural Machine Translation with SMT as Posterior Regularization

    讲者:北京航空航天大学 任烁

    在无监督的场景下,神经机器翻译模型主要通过交替回译(iterative back-translation)进行逐步迭代。因为缺乏有效的监督信号,这种方式得到的伪训练数据中会包含大量的噪音,这些噪音在迭代的过程中,从而会损害模型最终的翻译性能。在这篇文章中,作者采用后验正则(Posterior Regularization)的方式将SMT引入到无监督NMT的训练过程中,并通过EM过程交替优化SMT和NMT模型,使得无监督NMT迭代过程中的噪音能够被SMT有效去除,同时NMT模型也可以弥补SMT模型在句子流程性方面的不足。这篇文章的方法显著超越了之前方法的最好结果。

     

    Addressing the Under-translation Problem from the Entropy Perspective

    讲者:中科院自动化所 赵阳

    这篇文章关注NMT中的漏翻问题。先前的工作均是从模型的角度去缓解漏翻的问题,然而却忽略了源端单词的特性对漏翻的影响。基于此,这篇文章从源语言的角度分析了神经机器翻译的漏翻问题,并发现翻译熵较高的单词,其漏翻率也较大。根据此观察,提出了一种由粗粒度到细粒度的框架来缓解高熵词的漏翻问题。首先将高熵词的候选翻译替换为一个统一的特殊字符,来减少高熵词的翻译熵。然后探索了三种不同的细粒度策略来减少翻译系统的漏翻现象。

     

    “Bilingual Expert” Can Find Translation Errors

    讲者:阿里巴巴 汪嘉怿

    这篇文章提出了一种创新的方法来解决机器翻译自动质量评估的问题,这种方法引入了基于神经网络的条件语言模型,它能够提取出原文和译文的深层语义信息,用来准确地预测译文的质量,这个模型参加了WMT 2018的Quality Estimation七项任务,其中六项获得了世界第一的名次。

     

    HAS-QA: Hierarchical Answer Spans Model for Open-domain Question Answering

    讲者:中科院计算所 庞亮:

    HAS-QA模型面向的开放域问答任务(OpenQA),旨在基于无结构化的知识数据源回答各种类型的用户问题。模型从问题、段落、答案片段构建了层次化的网络框架,针对性的解决了段落答案的稀疏性,多答案片段的不确定性,以及多片段导致的答案起止位置的冲突。HAS-QA模型较好的建模了开放域问答任务,并在公开数据集上有显著的提升。

     

    Learning to Align Question and Answer Utterances in Customer Service Conversation with Recurrent Pointer Networks

    讲者:中科院自动化所 何世柱

    客服会话数据中的问题话语和答案话语是穿插在一起的,并没有明显的标记知道哪个答案对应哪条问题。在上述情况下,需要将客户的问题和客服的回答进行对齐,标记答案和问题之间的相互对应关系。针对这一任务,这篇文章提出了基于循环指针网络(Recurrent Pointer Networks)的问答对齐模型。通过循环神经网络对上下文建模,同时用指针网络来计算不定量的多个二分类的结果,以解决空对齐和一对多对齐的情况。

     

    Session3: 自然语言处理模型

    Show, Attend and Read: A Simple and Strong Baseline for Irregular Text Recognition

    讲者:西北工业大学 王鹏

    这篇文章提出了一个简单有效的用于不规则文本图像的识别方法。所提出的模型由一个CNN+LSTM编码器,一个LSTM解码器和一个经过改进的2D注意力模块构成,主体框架仅需约100行代码。同时本模型不依赖字母级别的标注信息。在多个规则和非规则字体识别数据集上都取得了不错的效果。

     

    Trainable Undersampling for Class-Imbalance Learning

    讲者:复旦大学 彭敏龙

    在这篇文章中,作者提出将分类器和评测指标囊括到数据采样过程中。为此,作者提出了一个可训练的数据采样器。这个采样器的优化目标是使得基于采样后的数据训练得到的分类器在给定的评测指标上有更好的表现。为了训练这样一个采样器,作者采用了增强学习中的决策梯度(policy gradient)算法。在大量的人造数据集和真实数据集上进行了测试。实验结果表明,文章所提出的方法超过了当前的最好的采样方法。

     

    Bidirectional Transition-Based Dependency Parsing

    讲者:上海科技大学 袁蕴哲

    传统的基于转移的依存句法分析器用以从左向右的方式处理输入语句。本文提出了一种简单的框架,用于双向基于转移的依存句法分析。在训练过程中, 我们分别学习一个从左向右的和一个从右向左句法分析器。在分析句子时,我们用两个分析器进行联合解析,并提出了联合评分、对偶分解、动态先知三种解析算法。实验结果表明,我们的几种算法都能得到很高的准确率,尤其是基于动态先知的算法自始至终保持了最好的效果。

     

    Unsupervised Bilingual Lexicon Induction from Mono-lingual Multimodal Data

    讲者:中国人民大学 陈师哲

    无监督双语词典提取是指不依赖于平行语料进行词语的翻译。由于人类在进行跨语言交流时,往往借助于视觉物体的指代来理解不同语言的含义,这篇文章提出以视觉为桥梁进行无监督词语翻译。为了使得基于视觉的模型能翻译不同类型的词汇以及提高词语的视觉定位精准度,作者首次提出利用单语言的多模态image-caption数据,训练了一个多语言的image-caption模型用于提取语言学特征和精确定位的视觉特征。这篇文章融合了这两类特征进行词语翻译,大大提高了现有基于视觉的无监督词语翻译性能。

     

    Long Short-Term Memory with Dynamic Skip Connections

    讲者:复旦大学 桂韬

    这篇文章通过引入动态跳边机制来减轻LSTM 在长距离依赖问题上表现欠缺的问题。这个动态跳边机制能够学会直接连接两个有依赖关系的词语。因为在训练数据中,并没有依赖关系的标注信息,作者提出一种新的基于强化学习方法来学习依赖关系。提出的模型用跳边信息计算循环迁移方程,使得模型比传统的基于序列信息的循环神经网络具有更强的长距离依赖性能。在自然语言处理三种任务上(实体识别、语言模型、情感分析)的实验结果显示这篇文章的模型具有更好的性能。在人造的数字预测数据集上验证了模型确实能够学会长距离依赖,并且在准确率上超过了LSTM 20%。

     

    A Generalized Language Model in Tensor Space

    讲者:天津大学 张立鹏

    这篇文章提出了一种基于张量空间的语言模型;还证明了张量空间语言模型是n元语言模型的推广;从张量空间语言模型中导出递归语言模型过程,并且建立张量空间语言模型与神经语言模型的联系。

     

    Session4:文本生成

    Livebot: Generating Live Video Comments Based on Visual and Textual Contexts

    讲者:北京大学 马树铭

    弹幕是视频网站上常见的评论形式,可以提高用户的参与度。这篇论文提出了机器自动弹幕的新任务和新数据集。为了解决弹幕生成这个新问题,论文分析了视频和弹幕评论文本之间的依赖关系,根据分析的依赖关系提出了两个新的模型。论文在新的数据集上用自动评测和人工评测相结合的方法对提出的模型进行验证。实验表明新的模型在弹幕生成的任务上能达到比现有视频文本生成模型更好的效果。

     

    A  Multi-Agent Communication Framework for Question-Worthy Phrase Extraction and Question Generation

    讲者:复旦大学 王思远

    这篇工作将基于句子的问题生成分为两步:先抽取值得提问的片段,再基于这些信息生成更好的问题,并提出一个Multi-agent交互框架使这俩个任务相互传递信息,共同学习,并取得良好的效果,且针对单个句子可以生成多个问题。

     

    Generating Chinese Ci with Designated Metrical Structure

    讲者:北京航空航天大学 胡志元

    宋词是一种抒情诗形式,遵循高度限制性的韵律结构。这使得计算机根据指定的韵律要求生成宋词具有非常大的挑战性。在这项工作中,我们采用了CVAE模型自动化地生成特定韵律结构的宋词。具体来说,这篇文章提出了第一个神经模型,它明确地编码了用于宋词生成的特定韵律结构,通过实验证明模型几乎可以生成具有完美韵律结构的宋词。

     

    Story Ending Generation with Incremental Encoding and Commonsense Knowledge

    讲者:清华大学 关健

    这篇文章提出了故事结局生成的任务,它能够针对给定的故事上文,基于“增量编码”框架的模型,梳理文章的逻辑脉络,配合常识信息生成语义合适、逻辑正确的故事结局。

     

    A Deep Sequential Model for Discourse Parsing on Multi-Party Dialogues

    讲者:清华大学 施舟行

    该文提出一用于多方对话篇章解析的深度序列式模型,以分析多方对话中各发言之间的对应关系及对话结构。该模型联合并交替地预测依赖关系和构建篇章结构。其每次预测一条依赖关系,在依赖关系的预测中利用到来自当前已经预测的篇章结构的全局信息,并由所预测的依赖关系逐步构建出及编码篇章结构。模型在STAC多方对话语料上取得SOTA结果。

     

    Differentiated Distribution Recovery for Neural Text Generation

    讲者:中科院计算所 李家宁

    本文针对文本生成模型生成质量不足的问题,提出差异性分布恢复DDR使模型专注于高频的文本模式同时弱化噪声和低频模式的影响。具体是通过修改模型的优化目标,使模型生成概率正比于真实概率的beta次方(beta>1)。在模拟数据和真实数据上都实现了更高的生成质量指标,有效提高了生成样本的图灵测试通过率。