論文の概要: Logic2Text: High-Fidelity Natural Language Generation from Logical Forms
- arxiv url: http://arxiv.org/abs/2004.14579v2
- Date: Thu, 24 Sep 2020 01:29:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 04:06:34.422540
- Title: Logic2Text: High-Fidelity Natural Language Generation from Logical Forms
- Title(参考訳): logic2text:論理形式からの高忠実度自然言語生成
- Authors: Zhiyu Chen, Wenhu Chen, Hanwen Zha, Xiyou Zhou, Yunkai Zhang, Sairam
Sundaresan, William Yang Wang
- Abstract要約: 我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
- 参考スコア(独自算出の注目度): 84.5687465831598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous works on Natural Language Generation (NLG) from structured data have
primarily focused on surface-level descriptions of record sequences. However,
for complex structured data, e.g., multi-row tables, it is often desirable for
an NLG system to describe interesting facts from logical inferences across
records. If only provided with the table, it is hard for existing models to
produce controllable and high-fidelity logical generations. In this work, we
formulate logical level NLG as generation from logical forms in order to obtain
controllable, high-fidelity, and faithful generations. We present a new
large-scale dataset, \textsc{Logic2Text}, with 10,753 descriptions involving
common logic types paired with the underlying logical forms. The logical forms
show diversified graph structure of free schema, which poses great challenges
on the model's ability to understand the semantics. We experiment on (1)
Fully-supervised training with the full datasets, and (2) Few-shot setting,
provided with hundreds of paired examples; We compare several popular
generation models and analyze their performances. We hope our dataset can
encourage research towards building an advanced NLG system capable of natural,
faithful, and human-like generation. The dataset and code are available at
https://github.com/czyssrs/Logic2Text.
- Abstract(参考訳): 構造化データからの自然言語生成(NLG)に関するこれまでの研究は、主にレコードシーケンスの表面レベル記述に焦点を当ててきた。
しかし、例えばマルチローテーブルのような複雑な構造化データの場合、NLGシステムはレコード間の論理的推論から興味深い事実を記述することが望ましい。
表だけを提供していれば、既存のモデルが制御可能で高忠実な論理世代を作り出すことは困難である。
本研究では,論理形式の生成として論理レベルnlgを定式化し,制御可能,忠実,忠実な世代を得る。
基礎となる論理形式と組み合わせた共通論理型を含む10,753種類の記述を含む,新しい大規模データセットである \textsc{logic2text} を提案する。
論理形式は、自由スキーマの多角化グラフ構造を示しており、モデルの意味を理解する能力に大きな課題がある。
1) データセットの完全な教師付きトレーニングと, (2) 数百組のサンプルが提供された少数ショット設定を実験し, いくつかの人気生成モデルを比較し, その性能解析を行った。
我々のデータセットは、自然で忠実で人間的な生成が可能な高度なNLGシステムの構築に向けた研究を促進することを願っている。
データセットとコードはhttps://github.com/czyssrs/logic2textで入手できる。
関連論文リスト
- Improving Complex Reasoning over Knowledge Graph with Logic-Aware Curriculum Tuning [89.89857766491475]
大規模言語モデル(LLM)に基づくKG上の複雑な推論スキーマを提案する。
任意の一階論理クエリを二分木分解により拡張し、LLMの推論能力を刺激する。
広く使われているデータセットに対する実験では、LACTは高度な手法よりも大幅に改善されている(平均+5.5% MRRスコア)。
論文 参考訳(メタデータ) (2024-05-02T18:12:08Z) - Assessing and Enhancing the Robustness of Large Language Models with Task Structure Variations for Logical Reasoning [25.496627355906966]
我々は「ReClor-plus」、「LogiQA-plus」、「LogiQAv2-plus」という3つの新しい論理推論データセットを開発した。
実験により、これらの単純な拡張がモデルの性能を著しく損なうことが示されている。
微調整とプロンプトのためのロジック駆動型データ拡張の適用は、識別モデルと生成モデルの両方における一般化を促進することができる。
論文 参考訳(メタデータ) (2023-10-13T22:29:15Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation [44.78200830757109]
本稿では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
PLOGはまずテーブル・ツー・論理形式生成タスクで事前訓練され、その後下流のテーブル・ツー・テキストタスクで微調整される。
PLOGは、テーブル-テキスト対よりもずっと確実に、テーブル-論理対から論理的推論を学ぶことができる。
論文 参考訳(メタデータ) (2022-05-25T11:55:54Z) - Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation [18.93964332724296]
本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T13:50:18Z) - LOGEN: Few-shot Logical Knowledge-Conditioned Text Generation with
Self-training [76.90793623822866]
数ショット設定で論理的知識条件付きテキスト生成のための統一的なフレームワークを提案する。
本手法は, 自己学習を利用して, コンテンツと構造整合性に基づく擬似論理形式を抽出する。
論文 参考訳(メタデータ) (2021-12-02T16:49:41Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。