論文の概要: Towards Verifiable Text Generation with Evolving Memory and
Self-Reflection
- arxiv url: http://arxiv.org/abs/2312.09075v1
- Date: Thu, 14 Dec 2023 16:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 21:01:02.442861
- Title: Towards Verifiable Text Generation with Evolving Memory and
Self-Reflection
- Title(参考訳): 進化する記憶と自己反射を伴う検証可能なテキスト生成に向けて
- Authors: Hao Sun, Hengyi Cai, Bo Wang, Yingyan Hou, Xiaochi Wei, Shuaiqiang
Wang, Yan Zhang, Dawei Yin
- Abstract要約: 検証可能なテキスト生成(VTG)は、記憶と自己回帰を進化させる検証可能なテキスト生成のための革新的なアプローチである。
VTGは、価値あるドキュメントと最新のドキュメントの両方を保持するために、長期記憶の進化を維持している。
アクティブ検索と多様なクエリ生成を利用して、検索したドキュメントの精度とスコープを両立させる。
- 参考スコア(独自算出の注目度): 30.72180909680164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) face several challenges, including the tendency
to produce incorrect outputs, known as hallucination. An effective solution is
verifiable text generation, which prompts LLMs to generate content with
citations for accuracy verification. However, verifiable text generation is
non-trivial due to the focus-shifting phenomenon, the dilemma between the
precision and scope in document retrieval, and the intricate reasoning required
to discern the relationship between the claim and citations. In this paper, we
present VTG, an innovative approach for Verifiable Text Generation with
evolving memory and self-reflection. VTG maintains evolving long short-term
memory to retain both valuable documents and up-to-date documents. Active
retrieval and diverse query generation are utilized to enhance both the
precision and scope of the retrieved documents. Furthermore, VTG features a
two-tier verifier and an evidence finder, enabling rethinking and reflection on
the relationship between the claim and citations. We conduct extensive
experiments on five datasets across three knowledge-intensive tasks and the
results reveal that VTG significantly outperforms existing baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幻覚として知られる誤った出力を生成する傾向など、いくつかの課題に直面している。
有効な解決策は、検証可能なテキスト生成であり、LCMは、正確な検証のために引用付きコンテンツを生成する。
しかし、フォーカスシフト現象、文書検索における精度と範囲のジレンマ、クレームと引用の関係を識別するために必要とされる複雑な推論などにより、検証可能なテキスト生成は自明ではない。
本稿では、記憶と自己回帰を進化させる検証可能なテキスト生成のための革新的なアプローチであるVTGを提案する。
VTGは、価値あるドキュメントと最新のドキュメントの両方を保持するために、長期記憶の進化を維持している。
能動的検索と多様なクエリ生成は、検索された文書の精度と範囲を高めるために利用される。
さらに、vtgは2層検証器と証拠発見器を備えており、クレームと引用の関係を再考し、反映することができる。
3つの知識集約型タスクにまたがる5つのデータセットについて広範な実験を行い,vtgが既存のベースラインを大きく上回ることを示した。
関連論文リスト
- QAEA-DR: A Unified Text Augmentation Framework for Dense Retrieval [12.225881591629815]
厳密な検索では、長いテキストを密度の高いベクトルに埋め込むと、情報が失われ、クエリとテキストのマッチングが不正確になる。
近年の研究では,文の埋め込みモデルや検索プロセスの改善を中心に研究が進められている。
本稿では,高密度検索のための新しいテキスト拡張フレームワークを導入し,生文書を高密度テキスト形式に変換する。
論文 参考訳(メタデータ) (2024-07-29T17:39:08Z) - CorpusLM: Towards a Unified Language Model on Corpus for Knowledge-Intensive Tasks [20.390672895839757]
Retrieval-augmented Generation (RAG) は、事実精度を高めるための一般的なソリューションとして登場した。
従来の検索モジュールは、大きなドキュメントインデックスと生成タスクとの切り離しに依存していることが多い。
生成検索,クローズドブック生成,RAGを統合した統一言語モデルである textbfCorpusLM を提案する。
論文 参考訳(メタデータ) (2024-02-02T06:44:22Z) - Corrective Retrieval Augmented Generation [36.04062963574603]
Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
論文 参考訳(メタデータ) (2024-01-29T04:36:39Z) - Knowledge-Augmented Language Model Verification [68.6099592486075]
最近の言語モデル(LM)は、パラメータに内在化された知識を持つテキストを生成する際、印象的な能力を示している。
本稿では,知識付加型LMの出力と知識を別個の検証器で検証することを提案する。
その結果,提案した検証器は,検索と生成の誤りを効果的に識別し,LMがより現実的に正しい出力を提供できることを示した。
論文 参考訳(メタデータ) (2023-10-19T15:40:00Z) - Optimizing Factual Accuracy in Text Generation through Dynamic Knowledge
Selection [71.20871905457174]
言語モデル(LM)は、私たちが情報と対話する方法に革命をもたらしたが、しばしば非現実的なテキストを生成する。
従来の手法では、外部知識をテキスト生成の参照として使用して事実性を高めるが、無関係な参照の知識の混在に苦慮することが多い。
本稿では,テキスト生成プロセスを反復処理に分割するDKGenを提案する。
論文 参考訳(メタデータ) (2023-08-30T02:22:40Z) - Deliberate then Generate: Enhanced Prompting Framework for Text
Generation [70.10319005141888]
Deliberate then Generate (DTG) プロンプトフレームワークはエラー検出命令とエラーを含む可能性のある候補で構成されている。
我々は、要約、翻訳、対話など、7つのテキスト生成タスクにまたがる20以上のデータセットに関する広範な実験を行う。
本稿では,DTGが既存のプロンプト手法を一貫して上回り,複数のテキスト生成タスクにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-05-31T13:23:04Z) - Give Me More Details: Improving Fact-Checking with Latent Retrieval [58.706972228039604]
証拠は、自動化された事実チェックにおいて重要な役割を果たす。
既存のファクトチェックシステムは、エビデンス文が与えられたと仮定するか、検索エンジンが返した検索スニペットを使用する。
資料から得られた全文を証拠として組み込んで,2つの豊富なデータセットを導入することを提案する。
論文 参考訳(メタデータ) (2023-05-25T15:01:19Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z) - GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
論文 参考訳(メタデータ) (2022-04-12T03:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。