論文の概要: Logical Natural Language Generation from Open-Domain Tables
- arxiv url: http://arxiv.org/abs/2004.10404v2
- Date: Tue, 28 Apr 2020 00:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:13:13.359156
- Title: Logical Natural Language Generation from Open-Domain Tables
- Title(参考訳): オープンドメインテーブルからの論理自然言語生成
- Authors: Wenhu Chen, Jianshu Chen, Yu Su, Zhiyu Chen and William Yang Wang
- Abstract要約: 本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
- 参考スコア(独自算出の注目度): 107.04385677577862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural natural language generation (NLG) models have recently shown
remarkable progress in fluency and coherence. However, existing studies on
neural NLG are primarily focused on surface-level realizations with limited
emphasis on logical inference, an important aspect of human thinking and
language. In this paper, we suggest a new NLG task where a model is tasked with
generating natural language statements that can be \emph{logically entailed} by
the facts in an open-domain semi-structured table. To facilitate the study of
the proposed logical NLG problem, we use the existing TabFact dataset
\cite{chen2019tabfact} featured with a wide range of logical/symbolic
inferences as our testbed, and propose new automatic metrics to evaluate the
fidelity of generation models w.r.t.\ logical inference. The new task poses
challenges to the existing monotonic generation frameworks due to the mismatch
between sequence order and logical order. In our experiments, we
comprehensively survey different generation architectures (LSTM, Transformer,
Pre-Trained LM) trained with different algorithms (RL, Adversarial Training,
Coarse-to-Fine) on the dataset and made following observations: 1) Pre-Trained
LM can significantly boost both the fluency and logical fidelity metrics, 2) RL
and Adversarial Training are trading fluency for fidelity, 3) Coarse-to-Fine
generation can help partially alleviate the fidelity issue while maintaining
high language fluency. The code and data are available at
\url{https://github.com/wenhuchen/LogicNLG}.
- Abstract(参考訳): ニューラル自然言語生成(nlg)モデルは最近、流動性とコヒーレンスが著しく進歩している。
しかしながら、ニューラルNLGに関する既存の研究は主に、人間の思考と言語の重要な側面である論理的推論に限定した表面レベルの実現に焦点を当てている。
本稿では,open-domain semi-structured table における事実によって \emph{logically entailed} となる自然言語文の生成をモデルが行う新しい nlg タスクを提案する。
提案する論理nlg問題の研究を容易にするために,既存のタブファクトデータセット \cite{chen2019tabfact} をテストベッドとして利用し,生成モデルw.r.t.\論理推論の忠実性を評価するための新しい自動メトリクスを提案する。
新しいタスクは、シーケンス順序と論理順序のミスマッチのために、既存のモノトニック世代フレームワークに問題をもたらす。
実験では,データセット上で異なるアルゴリズム(rl,adversarial training, loud-to-fine)で学習した異なる世代アーキテクチャ(lstm, transformer, pre-trained lm)を包括的に調査し,以下の結果を得た。
1)事前学習したLMは,流速と論理的忠実度の両方を著しく向上させることができる。
2 RL 及び対人訓練は、忠実性の取引の流布である。
3) 粗大なファイン生成は, 高い言語頻度を維持しつつ, フィデリティ問題を部分的に緩和するのに役立つ。
コードとデータは \url{https://github.com/wenhuchen/logicnlg} で入手できる。
関連論文リスト
- MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation [44.78200830757109]
本稿では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
PLOGはまずテーブル・ツー・論理形式生成タスクで事前訓練され、その後下流のテーブル・ツー・テキストタスクで微調整される。
PLOGは、テーブル-テキスト対よりもずっと確実に、テーブル-論理対から論理的推論を学ぶことができる。
論文 参考訳(メタデータ) (2022-05-25T11:55:54Z) - A Survey on Non-Autoregressive Generation for Neural Machine Translation
and Beyond [145.43029264191543]
非自己回帰(NAR)生成は、推論を高速化するために神経機械翻訳(NMT)で最初に提案される。
我々は,様々な非自己回帰的翻訳(NAT)モデルの比較と議論を行い,系統的な調査を行った。
本稿では,対話要約,テキスト要約,文法誤り訂正,意味解析,自動解析など,機械翻訳以外の他のNARモデルを概観する。
論文 参考訳(メタデータ) (2022-04-20T07:25:22Z) - Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation [18.93964332724296]
本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T13:50:18Z) - NeuralLog: Natural Language Inference with Joint Neural and Logical
Reasoning [6.795509403707242]
本稿では,単調性に基づく論理推論エンジンと,フレーズアライメントのためのニューラルネットワーク言語モデルの両方を利用するNeuralLogという推論フレームワークを提案する。
我々のフレームワークは,NLIタスクを古典的な探索問題としてモデル化し,ビーム探索アルゴリズムを用いて最適な推論経路を探索する。
実験により,我々のジョイントロジックとニューラル推論システムがNLIタスクの精度を改善し,SICKデータセットとMEDデータセットの最先端の精度を実現することが示された。
論文 参考訳(メタデータ) (2021-05-29T01:02:40Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z) - Logic2Text: High-Fidelity Natural Language Generation from Logical Forms [84.5687465831598]
我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
論文 参考訳(メタデータ) (2020-04-30T04:06:06Z) - Evaluating Logical Generalization in Graph Neural Networks [59.70452462833374]
グラフニューラルネットワーク(GNN)を用いた論理一般化の課題について検討する。
ベンチマークスイートであるGraphLogでは、学習アルゴリズムが異なる合成論理でルール誘導を実行する必要がある。
モデルが一般化し適応する能力は、トレーニング中に遭遇する論理規則の多様性によって強く決定される。
論文 参考訳(メタデータ) (2020-03-14T05:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。