論文の概要: Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation
- arxiv url: http://arxiv.org/abs/2112.06240v1
- Date: Sun, 12 Dec 2021 13:50:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 16:21:31.056504
- Title: Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation
- Title(参考訳): トピック条件付きデータ拡張と論理フォーム生成による論理レベル自然言語生成の改善
- Authors: Ao Liu, Congjian Luo, Naoaki Okazaki
- Abstract要約: 本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
- 参考スコア(独自算出の注目度): 18.93964332724296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logical Natural Language Generation, i.e., generating textual descriptions
that can be logically entailed by a structured table, has been a challenge due
to the low fidelity of the generation. \citet{chen2020logic2text} have
addressed this problem by annotating interim logical programs to control the
generation contents and semantics, and presented the task of table-aware
logical form to text (Logic2text) generation. However, although table instances
are abundant in the real world, logical forms paired with textual descriptions
require costly human annotation work, which limits the performance of neural
models. To mitigate this, we propose topic-conditioned data augmentation
(TopicDA), which utilizes GPT-2 to generate unpaired logical forms and textual
descriptions directly from tables. We further introduce logical form generation
(LG), a dual task of Logic2text that requires generating a valid logical form
based on a text description of a table. We also propose a semi-supervised
learning approach to jointly train a Logic2text and an LG model with both
labeled and augmented data. The two models benefit from each other by providing
extra supervision signals through back-translation. Experimental results on the
Logic2text dataset and the LG task demonstrate that our approach can
effectively utilize the augmented data and outperform supervised baselines by a
substantial margin.
- Abstract(参考訳): 論理自然言語生成(英: Logical Natural Language Generation)、すなわち、構造化テーブルによって論理的に関連付けられるテキスト記述を生成することは、生成の忠実度が低いために課題となっている。
\citet{chen2020logic2text} は、中間論理プログラムをアノテートして生成内容とセマンティクスを制御することでこの問題に対処し、テーブル認識論理形式のタスクをテキスト(logic2text)生成に提示した。
しかし、実世界ではテーブルインスタンスは豊富であるが、テキスト記述と組み合わせた論理形式は、神経モデルの性能を制限するコストのかかる人間のアノテーション作業を必要とする。
そこで,本研究では,gpt-2を用いてテーブルから直接ペアリングされていない論理形式やテキスト記述を生成するトピックコンディションデータ拡張 (topicda) を提案する。
さらに、テーブルのテキスト記述に基づいて論理形式を生成する必要があるLogic2textの二重タスクである論理形式生成(LG)についても紹介する。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
2つのモデルは、バックトランスレーションを通じて追加の監督信号を提供することで相互に利益をもたらす。
Logic2text データセットと LG タスクの実験結果から,提案手法は拡張データを効果的に活用し,教師付きベースラインを実質的なマージンで上回ることを示す。
関連論文リスト
- MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation [44.78200830757109]
本稿では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
PLOGはまずテーブル・ツー・論理形式生成タスクで事前訓練され、その後下流のテーブル・ツー・テキストタスクで微調整される。
PLOGは、テーブル-テキスト対よりもずっと確実に、テーブル-論理対から論理的推論を学ぶことができる。
論文 参考訳(メタデータ) (2022-05-25T11:55:54Z) - Logic-Consistency Text Generation from Semantic Parses [32.543257899910216]
本稿ではまず,意味解析から論理一貫性のあるテキストを生成するフレームワークであるSNOWBALLを提案する。
次に,意味解析と生成したテキスト間の論理的整合性を評価するための新しい自動計量BLECを提案する。
論文 参考訳(メタデータ) (2021-08-02T01:12:18Z) - Logic-Driven Context Extension and Data Augmentation for Logical
Reasoning of Text [65.24325614642223]
論理的な記号や表現をテキストで理解し、答えにたどり着くよう提案します。
このような論理的情報に基づいて,文脈拡張フレームワークとデータ拡張アルゴリズムを提案する。
本手法は最先端の性能を実現し,論理駆動コンテキスト拡張フレームワークとデータ拡張アルゴリズムの両方が精度向上に寄与する。
論文 参考訳(メタデータ) (2021-05-08T10:09:36Z) - Logic2Text: High-Fidelity Natural Language Generation from Logical Forms [84.5687465831598]
我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
論文 参考訳(メタデータ) (2020-04-30T04:06:06Z) - LogicalFactChecker: Leveraging Logical Operations for Fact Checking with
Graph Module Network [111.24773949467567]
ファクトチェックに論理演算を活用するニューラルネットワークアプローチであるLogicalFactCheckerを提案する。
大規模なベンチマークデータセットであるTABFACT上での最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-04-28T17:04:19Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。