論文の概要: Grounded Keys-to-Text Generation: Towards Factual Open-Ended Generation
- arxiv url: http://arxiv.org/abs/2212.01956v1
- Date: Sun, 4 Dec 2022 23:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 16:39:35.738483
- Title: Grounded Keys-to-Text Generation: Towards Factual Open-Ended Generation
- Title(参考訳): 接地鍵-テキスト生成:Factual Open Ended Generationを目指して
- Authors: Faeze Brahman, Baolin Peng, Michel Galley, Sudha Rao, Bill Dolan,
Snigdha Chaturvedi, Jianfeng Gao
- Abstract要約: そこで我々は,新しい接地型キー・ツー・テキスト生成タスクを提案する。
タスクは、ガイドキーと接地パスのセットが与えられたエンティティに関する事実記述を生成することである。
近年のQAに基づく評価手法に着想を得て,生成した記述の事実的正当性を示す自動計量MAFEを提案する。
- 参考スコア(独自算出の注目度): 92.1582872870226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large pre-trained language models have recently enabled open-ended generation
frameworks (e.g., prompt-to-text NLG) to tackle a variety of tasks going beyond
the traditional data-to-text generation. While this framework is more general,
it is under-specified and often leads to a lack of controllability restricting
their real-world usage. We propose a new grounded keys-to-text generation task:
the task is to generate a factual description about an entity given a set of
guiding keys, and grounding passages. To address this task, we introduce a new
dataset, called EntDeGen. Inspired by recent QA-based evaluation measures, we
propose an automatic metric, MAFE, for factual correctness of generated
descriptions. Our EntDescriptor model is equipped with strong rankers to fetch
helpful passages and generate entity descriptions. Experimental result shows a
good correlation (60.14) between our proposed metric and human judgments of
factuality. Our rankers significantly improved the factual correctness of
generated descriptions (15.95% and 34.51% relative gains in recall and
precision). Finally, our ablation study highlights the benefit of combining
keys and groundings.
- Abstract(参考訳): 大規模な事前訓練された言語モデルは、最近、従来のデータからテキストへの生成を超える様々なタスクに取り組むために、オープンエンドな生成フレームワーク(例えば、プロンプトからテキストへのNLG)を有効にした。
このフレームワークはより一般的なものであるが、過小評価されており、しばしば実世界の使用を制限する制御可能性の欠如に繋がる。
提案するタスクは,キーのセットと接地文が与えられたエンティティに関する事実記述を生成することである。
この課題に対処するため、EntDeGenと呼ばれる新しいデータセットを導入しました。
近年のQAに基づく評価手法に着想を得て,生成した記述の事実的正当性を示す自動計量MAFEを提案する。
当社のEntDescriptorモデルは強力なローダを備えており、有用なパスを取得し、エンティティ記述を生成する。
実験の結果,提案手法と人為的事実判断との間に,良好な相関(60.14)が得られた。
我々のランクは生成した記述の事実的正しさを著しく向上させた(15.95%と34.51%)。
最後に,本研究では,キーと接地の組み合わせの利点を強調する。
関連論文リスト
- Retrieval is Accurate Generation [99.24267226311157]
本稿では,支援文書の集合からコンテキスト認識句を選択する新しい手法を提案する。
本モデルでは,検索対象のベースラインの中で,最高の性能と低レイテンシを実現する。
論文 参考訳(メタデータ) (2024-02-27T14:16:19Z) - Optimizing Factual Accuracy in Text Generation through Dynamic Knowledge
Selection [71.20871905457174]
言語モデル(LM)は、私たちが情報と対話する方法に革命をもたらしたが、しばしば非現実的なテキストを生成する。
従来の手法では、外部知識をテキスト生成の参照として使用して事実性を高めるが、無関係な参照の知識の混在に苦慮することが多い。
本稿では,テキスト生成プロセスを反復処理に分割するDKGenを提案する。
論文 参考訳(メタデータ) (2023-08-30T02:22:40Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Facts2Story: Controlling Text Generation by Key Facts [0.0]
自然言語で表現された一連の事実を、より長い物語に展開し、制御された生成タスクを提案する。
我々は、GPT2のような自動回帰型一方向言語モデルは、より良い流動性を生み出すが、彼らは要求された事実に従うのに苦労することを示した。
本稿では,要求されるコンテンツに固執しながら,競争的フラッテンシーを生み出すプラン・アンド・クローズモデル(微調整xlnet)を提案する。
論文 参考訳(メタデータ) (2020-12-08T10:14:29Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - Partially-Aligned Data-to-Text Generation with Distant Supervision [69.15410325679635]
我々はPADTG(Partially-Aligned Data-to-Text Generation)と呼ばれる新しい生成タスクを提案する。
自動的にアノテートされたデータをトレーニングに利用し、アプリケーションドメインを大幅に拡張するため、より実用的です。
我々のフレームワークは、全てのベースラインモデルより優れており、部分整合データの利用の可能性を検証する。
論文 参考訳(メタデータ) (2020-10-03T03:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。