論文の概要: PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation
- arxiv url: http://arxiv.org/abs/2205.12697v1
- Date: Wed, 25 May 2022 11:55:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 14:36:25.562314
- Title: PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation
- Title(参考訳): PLOG: 論理テーブル-テキスト生成のための表-論理前処理
- Authors: Ao Liu, Haoyu Dong, Naoaki Okazaki, Shi Han, Dongmei Zhang
- Abstract要約: 本稿では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
PLOGはまずテーブル・ツー・論理形式生成タスクで事前訓練され、その後下流のテーブル・ツー・テキストタスクで微調整される。
PLOGは、テーブル-テキスト対よりもずっと確実に、テーブル-論理対から論理的推論を学ぶことができる。
- 参考スコア(独自算出の注目度): 44.78200830757109
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logical table-to-text generation is a task that involves generating logically
faithful sentences from tables, which requires models to derive logical level
facts from table records via logical inference. It raises a new challenge on
the logical-level content planning of table-to-text models. However, directly
learning the logical inference knowledge from table-text pairs is very
difficult for neural models because of the ambiguity of natural language and
the scarcity of parallel data. Hence even large-scale pre-trained language
models present low logical fidelity on logical table-to-text. In this work, we
propose a PLOG (Pretrained Logical Form Generator) framework to improve the
generation fidelity. Specifically, PLOG is first pretrained on a
table-to-logic-form generation (table-to-logic) task, then finetuned on
downstream table-to-text tasks. The formal definition of logical forms enables
us to collect large amount of accurate logical forms from tables without human
annotation. In addition, PLOG can learn logical inference from table-logic
pairs much more definitely than from table-text pairs. To evaluate our model,
we further collect a controlled logical table-to-text dataset CONTLOG based on
an existing dataset. On two benchmarks, LOGICNLG and CONTLOG, PLOG outperforms
strong baselines by a large margin on the logical fidelity, demonstrating the
effectiveness of table-to-logic pretraining.
- Abstract(参考訳): 論理テーブル・トゥ・テキスト生成(英: Logical table-to-text generation)とは、論理的に忠実な文をテーブルから生成するタスクである。
テーブルからテキストへのモデルの論理レベルのコンテンツ計画に関する新たな課題を提起する。
しかし、自然言語のあいまいさと並列データの不足のため、論理推論の知識をテーブルテキストペアから直接学習することは、神経モデルにとって非常に難しい。
したがって、大規模で事前訓練された言語モデルでさえ、論理テーブルからテキストへの論理的忠実度は低い。
本研究では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
具体的には、plogはまずtable-to-logic-form生成(table-to-logic)タスクで事前トレーニングされ、次に下流のtable-to-textタスクで微調整される。
論理形式を形式的に定義することで、人間のアノテーションなしでテーブルから大量の正確な論理形式を収集できる。
加えて、PLOGはテーブル-テキスト対よりもずっと確実にテーブル-論理対から論理的推論を学ぶことができる。
このモデルを評価するために、既存のデータセットに基づいて制御された論理テーブルからテキストまでのデータセットCONTLOGを収集する。
LOGICNLG と CONTLOG の2つのベンチマークでは、PLOG は論理的忠実度に大きな差を付け、テーブルから論理的事前学習の有効性を示す。
関連論文リスト
- Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - Investigating the Robustness of Natural Language Generation from Logical
Forms via Counterfactual Samples [30.079030298066847]
事前訓練されたモデルに基づく最先端の手法は、標準テストデータセットで顕著なパフォーマンスを達成した。
これらの手法が、テーブルのヘッダーと論理形式の演算子の間の急激な相関にのみ依存するのではなく、論理的推論を行う方法を学ぶかどうかを疑問視する。
本稿では,ショートカットへの依存を減らすための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-16T14:14:53Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation [18.93964332724296]
本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T13:50:18Z) - Logic-Driven Context Extension and Data Augmentation for Logical
Reasoning of Text [65.24325614642223]
論理的な記号や表現をテキストで理解し、答えにたどり着くよう提案します。
このような論理的情報に基づいて,文脈拡張フレームワークとデータ拡張アルゴリズムを提案する。
本手法は最先端の性能を実現し,論理駆動コンテキスト拡張フレームワークとデータ拡張アルゴリズムの両方が精度向上に寄与する。
論文 参考訳(メタデータ) (2021-05-08T10:09:36Z) - Logic2Text: High-Fidelity Natural Language Generation from Logical Forms [84.5687465831598]
我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
論文 参考訳(メタデータ) (2020-04-30T04:06:06Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。