論文の概要: LOGEN: Few-shot Logical Knowledge-Conditioned Text Generation with
Self-training
- arxiv url: http://arxiv.org/abs/2112.01404v3
- Date: Fri, 5 May 2023 03:26:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:57:57.085624
- Title: LOGEN: Few-shot Logical Knowledge-Conditioned Text Generation with
Self-training
- Title(参考訳): LOGEN: 自己学習による論理的知識記述テキスト生成
- Authors: Shumin Deng, Jiacheng Yang, Hongbin Ye, Chuanqi Tan, Mosha Chen,
Songfang Huang, Fei Huang, Huajun Chen, Ningyu Zhang
- Abstract要約: 数ショット設定で論理的知識条件付きテキスト生成のための統一的なフレームワークを提案する。
本手法は, 自己学習を利用して, コンテンツと構造整合性に基づく擬似論理形式を抽出する。
- 参考スコア(独自算出の注目度): 76.90793623822866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural language generation from structured data mainly focuses on
surface-level descriptions, suffering from uncontrollable content selection and
low fidelity. Previous works leverage logical forms to facilitate logical
knowledge-conditioned text generation. Though achieving remarkable progress,
they are data-hungry, which makes the adoption for real-world applications
challenging with limited data. To this end, this paper proposes a unified
framework for logical knowledge-conditioned text generation in the few-shot
setting. With only a few seeds logical forms (e.g., 20/100 shot), our approach
leverages self-training and samples pseudo logical forms based on content and
structure consistency. Experimental results demonstrate that our approach can
obtain better few-shot performance than baselines.
- Abstract(参考訳): 構造化データからの自然言語生成は主に、制御不能なコンテンツ選択と低忠実さに苦しむ表面レベルの記述に焦点を当てている。
以前の作品は論理形式を利用して論理知識条件付きテキスト生成を容易にする。
目覚ましい進歩を遂げたものの、それらはデータ収集であり、限られたデータで現実のアプリケーションを採用するのに苦労している。
そこで本稿では,論理知識条件付きテキスト生成のための統合フレームワークを提案する。
少数の種論理形式(例:20/100ショット)で、本手法は自己学習を活用し、内容と構造整合性に基づいて擬似論理形式をサンプリングする。
実験結果から,本手法はベースラインよりも精度が良いことを示す。
関連論文リスト
- Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - An xAI Approach for Data-to-Text Processing with ASP [39.58317527488534]
本稿では,xAI要求に準拠するフレームワークを提案する。
テキスト記述は階層的に整理され、テキストがさらに詳細で豊かになるトップダウン構造になっている。
自然言語記述の構造の生成も論理規則によって管理される。
論文 参考訳(メタデータ) (2023-08-30T09:09:09Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - Logic-Consistency Text Generation from Semantic Parses [32.543257899910216]
本稿ではまず,意味解析から論理一貫性のあるテキストを生成するフレームワークであるSNOWBALLを提案する。
次に,意味解析と生成したテキスト間の論理的整合性を評価するための新しい自動計量BLECを提案する。
論文 参考訳(メタデータ) (2021-08-02T01:12:18Z) - Logic-Driven Context Extension and Data Augmentation for Logical
Reasoning of Text [65.24325614642223]
論理的な記号や表現をテキストで理解し、答えにたどり着くよう提案します。
このような論理的情報に基づいて,文脈拡張フレームワークとデータ拡張アルゴリズムを提案する。
本手法は最先端の性能を実現し,論理駆動コンテキスト拡張フレームワークとデータ拡張アルゴリズムの両方が精度向上に寄与する。
論文 参考訳(メタデータ) (2021-05-08T10:09:36Z) - Logic2Text: High-Fidelity Natural Language Generation from Logical Forms [84.5687465831598]
我々は、制御可能、高忠実、忠実な世代を得るため、論理形式から生成する論理レベル NLG を定式化する。
提案する大規模データセットは TextscLogic2Text で,10,753 個の共通論理型を基礎となる論理形式と組み合わせて記述する。
論文 参考訳(メタデータ) (2020-04-30T04:06:06Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。