論文の概要: Logical Natural Language Generation from Open-Domain Tables
- arxiv url: http://arxiv.org/abs/2004.10404v2
- Date: Tue, 28 Apr 2020 00:26:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:13:13.359156
- Title: Logical Natural Language Generation from Open-Domain Tables
- Title(参考訳): オープンドメインテーブルからの論理自然言語生成
- Authors: Wenhu Chen, Jianshu Chen, Yu Su, Zhiyu Chen and William Yang Wang
- Abstract要約: 本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
- 参考スコア(独自算出の注目度): 107.04385677577862
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural natural language generation (NLG) models have recently shown
remarkable progress in fluency and coherence. However, existing studies on
neural NLG are primarily focused on surface-level realizations with limited
emphasis on logical inference, an important aspect of human thinking and
language. In this paper, we suggest a new NLG task where a model is tasked with
generating natural language statements that can be \emph{logically entailed} by
the facts in an open-domain semi-structured table. To facilitate the study of
the proposed logical NLG problem, we use the existing TabFact dataset
\cite{chen2019tabfact} featured with a wide range of logical/symbolic
inferences as our testbed, and propose new automatic metrics to evaluate the
fidelity of generation models w.r.t.\ logical inference. The new task poses
challenges to the existing monotonic generation frameworks due to the mismatch
between sequence order and logical order. In our experiments, we
comprehensively survey different generation architectures (LSTM, Transformer,
Pre-Trained LM) trained with different algorithms (RL, Adversarial Training,
Coarse-to-Fine) on the dataset and made following observations: 1) Pre-Trained
LM can significantly boost both the fluency and logical fidelity metrics, 2) RL
and Adversarial Training are trading fluency for fidelity, 3) Coarse-to-Fine
generation can help partially alleviate the fidelity issue while maintaining
high language fluency. The code and data are available at
\url{https://github.com/wenhuchen/LogicNLG}.
- Abstract(参考訳): ニューラル自然言語生成(nlg)モデルは最近、流動性とコヒーレンスが著しく進歩している。
しかしながら、ニューラルNLGに関する既存の研究は主に、人間の思考と言語の重要な側面である論理的推論に限定した表面レベルの実現に焦点を当てている。
本稿では,open-domain semi-structured table における事実によって \emph{logically entailed} となる自然言語文の生成をモデルが行う新しい nlg タスクを提案する。
提案する論理nlg問題の研究を容易にするために,既存のタブファクトデータセット \cite{chen2019tabfact} をテストベッドとして利用し,生成モデルw.r.t.\論理推論の忠実性を評価するための新しい自動メトリクスを提案する。
新しいタスクは、シーケンス順序と論理順序のミスマッチのために、既存のモノトニック世代フレームワークに問題をもたらす。
実験では,データセット上で異なるアルゴリズム(rl,adversarial training, loud-to-fine)で学習した異なる世代アーキテクチャ(lstm, transformer, pre-trained lm)を包括的に調査し,以下の結果を得た。
1)事前学習したLMは,流速と論理的忠実度の両方を著しく向上させることができる。
2 RL 及び対人訓練は、忠実性の取引の流布である。
3) 粗大なファイン生成は, 高い言語頻度を維持しつつ, フィデリティ問題を部分的に緩和するのに役立つ。
コードとデータは \url{https://github.com/wenhuchen/logicnlg} で入手できる。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation [44.78200830757109]
本稿では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
PLOGはまずテーブル・ツー・論理形式生成タスクで事前訓練され、その後下流のテーブル・ツー・テキストタスクで微調整される。
PLOGは、テーブル-テキスト対よりもずっと確実に、テーブル-論理対から論理的推論を学ぶことができる。
論文 参考訳(メタデータ) (2022-05-25T11:55:54Z) - Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation [18.93964332724296]
本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T13:50:18Z) - NeuralLog: Natural Language Inference with Joint Neural and Logical
Reasoning [6.795509403707242]
本稿では,単調性に基づく論理推論エンジンと,フレーズアライメントのためのニューラルネットワーク言語モデルの両方を利用するNeuralLogという推論フレームワークを提案する。
我々のフレームワークは,NLIタスクを古典的な探索問題としてモデル化し,ビーム探索アルゴリズムを用いて最適な推論経路を探索する。
実験により,我々のジョイントロジックとニューラル推論システムがNLIタスクの精度を改善し,SICKデータセットとMEDデータセットの最先端の精度を実現することが示された。
論文 参考訳(メタデータ) (2021-05-29T01:02:40Z) - Logic2Text: High-Fidelity Natural Language Generation from Logical Forms [84.5687465831598]
我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
論文 参考訳(メタデータ) (2020-04-30T04:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。