日记大全

日记大全 > 句子大全

中科大博士生ACL(2021直播分享:多方对话理解的预训练语言模型)

句子大全 2022-12-06 05:01:01
相关推荐

AI研习社—AI科技评论本次联合中国科学技术大学博士四年级顾佳宸同学为大家带来 ACL 2021系列论文解读——多方对话理解的预训练语言模型。

分享人姓名:顾佳宸

直播时间:6.15(周二)晚7点

个人简介:

顾佳宸,中国科学技术大学直博四年级生,导师凌震华教授。主要研究方向为对话系统。

主题:ACL2021 多方对话理解的预训练语言模型

分享概要

用于多方对话 (Multi-Party Conversation,MPC) 的各种神经网络模型在接收人识别、说话人识别和回复预测等各种任务上取得了令人瞩目的进步。但是,这些现有的 MPC 方法通常单独表征对话者和对话语句,忽略了 MPC 中固有的复杂结构,而这些结构提供了至关重要的对话者和对话语句语义信息,并会帮助理解整个对话过程。为此,我们提出了MPC-BERT,这是一种用于多方对话理解的预训练模型,它考虑在多个精心设计的自监督任务的统一框架下学习“谁对谁说了什么”。特别地,这些任务可以分为(1)对话者结构建模,包括回复语句识别,相同说话者搜索和指针一致性区分,以及(2)语句语义建模,包括掩码共享语句恢复和共享节点检测。我们在三个下游任务上评估 MPC-BERT,包括接收人识别、说话人识别和回复选择。实验结果表明,MPC-BERT 大大优于以前的方法,并在两个基准数据集、所有三个下游任务上实现了当前最优的性能。

论文题目:多方对话理解的预训练语言模型

《MPC-BERT: A Pre-Trained Language Model for Multi-Party Conversation Understanding》

论文地址:https://arxiv.org/pdf/2106.01541.pdf

代码:https://github.com/JasonForJoy/MPC-BERT

分享提纲

1、多方对话简介

2、MPC-BERT自监督任务介绍

3、下游任务介绍

4、实验结果

5、总结

扫码直接加入ACL2021顶会交流群:

阅读剩余内容
网友评论
相关内容
拓展阅读
最近更新