論文の概要: LoFT: Enhancing Faithfulness and Diversity for Table-to-Text Generation
via Logic Form Control
- arxiv url: http://arxiv.org/abs/2302.02962v1
- Date: Mon, 6 Feb 2023 17:49:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 15:43:53.642418
- Title: LoFT: Enhancing Faithfulness and Diversity for Table-to-Text Generation
via Logic Form Control
- Title(参考訳): LoFT:論理形式制御による表-テキスト生成における忠実度と多様性の向上
- Authors: Yilun Zhao, Zhenting Qi, Linyong Nan, Lorenzo Jaime Yu Flores,
Dragomir Radev
- Abstract要約: 本研究は,論理形式をファクト検証やコンテンツプランナとして利用してLT2T生成を制御するLoFTを提案する。
LogicNLGデータセットの実験結果は、LoFTが不信と多様性の欠如に同時に対処する最初のモデルであることを示している。
- 参考スコア(独自算出の注目度): 8.746765663575122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Logical Table-to-Text (LT2T) generation is tasked with generating logically
faithful sentences from tables. There currently exists two challenges in the
field: 1) Faithfulness: how to generate sentences that are factually correct
given the table content; 2) Diversity: how to generate multiple sentences that
offer different perspectives on the table. This work proposes LoFT, which
utilizes logic forms as fact verifiers and content planners to control LT2T
generation. Experimental results on the LogicNLG dataset demonstrate that LoFT
is the first model that addresses unfaithfulness and lack of diversity issues
simultaneously. Our code is publicly available at
https://github.com/Yale-LILY/LoFT.
- Abstract(参考訳): Logical Table-to-Text (LT2T) 生成は、テーブルから論理的に忠実な文を生成する。
現在、この分野には2つの課題がある。
1) 忠実性: 表の内容から事実的に正しい文を生成する方法
2)多様性:テーブル上の異なる視点を提供する複数の文を生成する方法。
本研究は,論理形式をファクト検証やコンテンツプランナとして利用してLT2T生成を制御するLoFTを提案する。
LogicNLGデータセットの実験結果は、LoFTが不信と多様性の欠如に同時に対処する最初のモデルであることを示している。
私たちのコードはhttps://github.com/Yale-LILY/LoFT.comで公開されています。
関連論文リスト
- TAP4LLM: Table Provider on Sampling, Augmenting, and Packing Semi-structured Data for Large Language Model Reasoning [55.33939289989238]
テーブルベースタスクにおいて,大規模言語モデル(LLM)を効果的に活用するための汎用プリプロセッサスイートとして,TAP4LLMを提案する。
1)大きなテーブルをクエリセマンティクスに基づいて管理可能なサブテーブルに分解するテーブルサンプリング、(2)外部ソースやモデルから追加の知識でテーブルを拡張するテーブル拡張、(3)テーブルパッキングとシリアライゼーションによりテーブルをLLMの理解に適したさまざまなフォーマットに変換する。
論文 参考訳(メタデータ) (2023-12-14T15:37:04Z) - Bridge the Gap between Language models and Tabular Understanding [99.88470271644894]
自然言語領域における事前学習の成功以降,テーブル事前学習のパラダイムが提案され,急速に採用されている。
有望な発見にもかかわらず、事前トレーニングと微調整フェーズの間には入力ギャップがある。
UTPは,テーブルテキスト,テーブル,テキストの3種類のマルチモーダル入力を動的にサポートする手法である。
論文 参考訳(メタデータ) (2023-02-16T15:16:55Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - MultiHiertt: Numerical Reasoning over Multi Hierarchical Tabular and
Textual Data [7.063167712310221]
既存のハイブリットデータに対する質問応答ベンチマークには、各ドキュメントに1つのフラットテーブルしか含まれていない。
大規模ベンチマークであるMultiHierttを構築し、多階層タブラリデータとテクスチュアルデータにQAペアを配置する。
結果から,MultiHierttは,人的専門家の業績よりもはるかに遅れている既存のベースラインに対して,強い課題を呈していることがわかった。
論文 参考訳(メタデータ) (2022-06-03T00:24:35Z) - PLOG: Table-to-Logic Pretraining for Logical Table-to-Text Generation [44.78200830757109]
本稿では,PLOG(Pretrained Logical Form Generator)フレームワークを提案する。
PLOGはまずテーブル・ツー・論理形式生成タスクで事前訓練され、その後下流のテーブル・ツー・テキストタスクで微調整される。
PLOGは、テーブル-テキスト対よりもずっと確実に、テーブル-論理対から論理的推論を学ぶことができる。
論文 参考訳(メタデータ) (2022-05-25T11:55:54Z) - Diversity Enhanced Table-to-Text Generation via Type Control [9.680732996717586]
本稿では,型制御テーブル・ツー・テキスト生成モデルを用いて,文の固有性,その論理型に基づく,単純かつ効果的な多様性向上手法を提案する。
提案手法は, 生成した文の種類を効果的に制御し, 品質, 事実, 多様性のトレードオフの両面において, 最強のベースラインよりも優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2022-05-22T22:05:21Z) - Improving Logical-Level Natural Language Generation with
Topic-Conditioned Data Augmentation and Logical Form Generation [18.93964332724296]
本稿ではトピック条件付きデータ拡張(TopicDA)を提案し,テーブルから直接論理形式とテキスト記述を生成する。
論理形式生成(LG)はLogic2textの2つのタスクであり、テーブルのテキスト記述に基づいて有効な論理形式を生成する必要がある。
また,ラベル付きデータと拡張データの両方でLogic2textとLGモデルを併用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T13:50:18Z) - Logic2Text: High-Fidelity Natural Language Generation from Logical Forms [84.5687465831598]
我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
論文 参考訳(メタデータ) (2020-04-30T04:06:06Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。