1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > A Neural Conversational Model

A Neural Conversational Model

时间:2020-01-16 11:45:08

相关推荐

A Neural Conversational Model

前面介绍过几篇seq2seq在机器翻译、文本蕴藏、自动文摘领域的应用,模型上每篇稍有不同,但基本的思想是接近的。本文继续分享一篇seq2seq在对话生成任务上的应用,是一篇工业界的论文,因此并没有什么理论创新。之所以选这一篇,是因为对话生成是一个非常热门的研究领域和应用领域,也可能是一个非常热门的创业领域,另外一个原因是为了充实seq2seq在各个领域中的应用这一主题。论文题目是A Neural Conversational Model,作者是来自Google Brain,毕业于UC Berkeley的Oriol Vinyals博士,论文最早于7月放在arxiv上。

模型部分不用多说,是最简单的seq2seq,架构图如下:

本篇主要想分享的东西是结果以及一些思考。文中采用了两个数据集,IT Helpdesk Troubleshooting dataset和OpenSubtitles dataset,前者是一个关于IT类的FAQ数据集,后者是一个电影剧本的数据集。

我们可以看一下训练后的模型生成的对话结果,这里只关注第二个数据集的结果:

常识类问题:

哲学类问题:

道德类问题:

为了对比,作者添加了一组cleverbot(cleverbot是一个在线聊天机器人)的对比结果,如下:

从对比结果中可以看得出,本文模型生成的结果比网上流行的在线聊天机器人要看起来更加“智能”一些,之前在知乎上回答过一个问题三代聊天机器人在技术上的区别在哪里?,我想cleverbot更接近于第二代,采用了对话检索,即对话是从一个很庞大的数据库中匹配检索来的,而本文的模型属于第三代,更加智能,给定输入生成输出,并不需要借助于人工特征。

但bot这个领域确实还面临一些问题,就像文中作者所说,如何客观地评价生成的效果非常重要,尤其是对于一些没有标准答案的问题来说,根本无法衡量哪个结果更加好。其实不仅仅bot,在自动文摘、机器翻译等各种nlp任务中,评价都是一个很难的问题,自动评价只是从某种意义上解决了各个模型相互比较的一种需求,但在实际应用当中用户的评价更加重要,虽然有时并不是那么客观。

来源:paperweekly

原文链接

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。