RDF2Text
Few-Shot NLG with Pre-Trained Language Model
Logical Natural Language Generation from Open-Domain Tables
构建了一个新的数据集 LogicNLG,它需要在标准的文本生成方法的基础上使用额外的逻辑。例如,需要使用一些比较和计数操作来纳入「1 more gold medal」或「most gold medals」等部分,这些部分会使得生成的文本更加自然和生动。
Structural Information Preserving for Graph-to-Text Generation
Knowledge Graph-Augmented Abstractive Summarization with Semantic-Driven Cloze Reward
提出利用根据某个文档构建的知识图谱,来改进文本生成过程
使用 Roberta 对输入段落编码,接BiLSTM。使用 OpenIE 提取三元组,从输入文档中得到KG,将关系词变换为与DualEnc 相似的显示节点,使用步骤1中的BiLSTM的隐藏状态对节点的状态进行初始化。使用GAT更新节点状态。将前两步获得的向量作为条件,生成文本。
最后结果:比其他模型要好,但是没有 bart 效果好