1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 直播 | ACL 论文解读:提升预训练语言模型实体与关系理解的统一框架

直播 | ACL 论文解读:提升预训练语言模型实体与关系理解的统一框架

时间:2018-11-21 21:25:33

相关推荐

直播 | ACL 论文解读:提升预训练语言模型实体与关系理解的统一框架

「AI Drive」是由 PaperWeekly 和 biendata 共同发起的学术直播间,旨在帮助更多的青年学者宣传其最新科研成果。我们一直认为,单向地输出知识并不是一个最好的方式,而有效地反馈和交流可能会让知识的传播更加有意义,从而产生更大的价值。

本期 AI Drive,我们邀请到清华大学计算机系博士生秦禹嘉,为大家在线解读其发表于 ACL 的最新工作:ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning。对本期主题感兴趣的小伙伴,6 月 17 日(周四)晚 7 点,我们准时相约 PaperWeekly B 站直播间。

直播信息

预训练语言模型在各种下游自然语言处理 任务中表现出卓越的性能。然而,传统的预训练目标并没有明确地对文本中的关系事实进行建模,这对于文本理解至关重要。为了解决这个问题,我们提出了一种新颖的对比学习框架 ERICA,以深入了解文本中的实体及实体间关系。

具体来说,我们定义了两个新的预训练任务来更好地理解实体和关系:1)实体区分任务,用于区分给定的头实体和关系可以推断出哪个尾实体;2)关系判别任务,在语义上区分两个关系是否接近,这其中涉及复杂的关系推理。实验结果表明,ERICA 可以在多种语言理解任务上,尤其是在低资源设定下提升典型 PLM(例如 BERT 和 RoBERTa)的性能。

论文标题:

ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning

论文链接:

/abs/.15022

代码链接:

/thunlp/ERICA

本次分享的具体内容有:

预训练语言模型的背景

实体与关系理解

统一的增强预训练语言模型实体与关系理解的框架

总结

嘉宾介绍

秦禹嘉/ 清华大学博士生

秦禹嘉,清华大学计算机系一年级博士生。导师刘知远副教授。主要研究方向为预训练语言模型,信息抽取,阅读理解等。以第一作者身份在 ACL / ICLR / TASLP 等会议/期刊上发表多篇论文。

直播地址& 交流群

本次直播将在 PaperWeekly B 站直播间进行,扫描下方海报二维码点击阅读原文即可免费观看。线上分享结束后,嘉宾还将在直播交流群内实时 QA,在 PaperWeekly 微信公众号后台回复「AI Drive」,即可获取入群通道

B 站直播间:

/14884511

合作伙伴

????

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。