論文の概要: ATM: Adversarial Tuning Multi-agent System Makes a Robust Retrieval-Augmented Generator
- arxiv url: http://arxiv.org/abs/2405.18111v3
- Date: Tue, 08 Oct 2024 06:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:27.254460
- Title: ATM: Adversarial Tuning Multi-agent System Makes a Robust Retrieval-Augmented Generator
- Title(参考訳): ATM: 逆調整マルチエージェントシステムでロバストな検索用発電機を作る
- Authors: Junda Zhu, Lingyong Yan, Haibo Shi, Dawei Yin, Lei Sha,
- Abstract要約: 大規模言語モデル (LLM) は、検索強化世代 (RAG) の恩恵を受けることが証明されている。
ATM(Adversarial Tuning Multi-agent System)を用いた検索拡張ジェネレータの最適化を提案する。
- 参考スコア(独自算出の注目度): 22.81784849762196
- License:
- Abstract: Large language models (LLMs) are proven to benefit a lot from retrieval-augmented generation (RAG) in alleviating hallucinations confronted with knowledge-intensive questions. RAG adopts information retrieval techniques to inject external knowledge from semantic-relevant documents as input contexts. However, since today's Internet is flooded with numerous noisy and fabricating content, it is inevitable that RAG systems are vulnerable to these noises and prone to respond incorrectly. To this end, we propose to optimize the retrieval-augmented Generator with an Adversarial Tuning Multi-agent system (ATM). The ATM steers the Generator to have a robust perspective of useful documents for question answering with the help of an auxiliary Attacker agent through adversarially tuning the agents for several iterations. After rounds of multi-agent iterative tuning, the Generator can eventually better discriminate useful documents amongst fabrications. The experimental results verify the effectiveness of ATM and we also observe that the Generator can achieve better performance compared to the state-of-the-art baselines.
- Abstract(参考訳): 大言語モデル(LLM)は、知識集約的な質問に直面する幻覚を緩和するために、検索増強世代(RAG)から多くの恩恵を受けることが証明されている。
RAGは情報検索技術を採用し、意味関連文書から外部知識を入力コンテキストとして注入する。
しかし、今日のインターネットには多くのノイズや製造コンテンツが溢れているため、RAGシステムがこれらのノイズに対して脆弱であり、誤った応答をしがちであることは避けられない。
そこで本稿では,ATM (Adversarial Tuning Multi-agent System) を用いた検索拡張ジェネレータを提案する。
ATMは、複数の繰り返しエージェントを逆向きに調整することで、補助攻撃エージェントの助けを借りて質問に答えるための有用な文書の堅牢な視点を持つように、ジェネレータを操縦する。
マルチエージェント反復チューニングのラウンドの後、ジェネレータは最終的に製造において有用な文書をよりよく識別することができる。
また, ATMの有効性を検証し, 現状のベースラインと比較して, ジェネレータの性能が向上することを示した。
関連論文リスト
- Reinforced Information Retrieval [35.0424269986952]
textbfReinforced-IRは、事前学習した検索器とジェネレータを併用して正確なクロスドメイン検索を行う新しい手法である。
Reinforced-IRの重要なイノベーションは textbfSelf-Boosting フレームワークである。
我々の実験では、Reinforced-IRは既存のドメイン適応手法を大きなマージンで上回り、広範囲のアプリケーションシナリオで検索品質が大幅に向上した。
論文 参考訳(メタデータ) (2025-02-17T08:52:39Z) - MAIN-RAG: Multi-Agent Filtering Retrieval-Augmented Generation [34.66546005629471]
大規模言語モデル(LLM)は、様々な自然言語処理タスクに不可欠なツールであるが、時代遅れや誤った情報の生成に悩まされることが多い。
Retrieval-Augmented Generation (RAG)は、外部のリアルタイム情報検索をLLM応答に組み込むことでこの問題に対処する。
この問題に対処するため,マルチエージェントフィルタ検索検索生成(MAIN-RAG)を提案する。
MAIN-RAGはトレーニング不要なRAGフレームワークで、複数のLCMエージェントを利用して検索した文書のフィルタリングとスコア付けを行う。
論文 参考訳(メタデータ) (2024-12-31T08:07:26Z) - PA-RAG: RAG Alignment via Multi-Perspective Preference Optimization [35.48003039415176]
検索拡張世代(RAG)は、大規模言語モデル(LLM)における時代遅れおよび幻覚的内容の問題を軽減する。
RAGジェネレータは、不適切な応答情報、応答堅牢性、および励振品質に悩まされることが多い。
本稿では,PA-RAG要求を包括的に整合させるため,複数視点優先アライメント(PA-RAG)を提案する。
論文 参考訳(メタデータ) (2024-12-19T04:18:51Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z) - ScopeQA: A Framework for Generating Out-of-Scope Questions for RAG [52.33835101586687]
会話AIエージェントはRetrieval Augmented Generation(RAG)を使用して、ユーザからの問い合わせに対して検証可能なドキュメント地上応答を提供する。
本稿では,多様な境界線外質問を効率よく生成する,ガイド付き幻覚に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - Evaluating Robustness of Generative Search Engine on Adversarial Factual Questions [89.35345649303451]
生成検索エンジンは、人々がオンラインで情報を求める方法を変える可能性を秘めている。
しかし,既存の大規模言語モデル(LLM)が支援する生成検索エンジンからの応答は必ずしも正確ではない。
検索強化世代は、敵がシステム全体を回避できるため、安全上の懸念を増す。
論文 参考訳(メタデータ) (2024-02-25T11:22:19Z) - Corrective Retrieval Augmented Generation [36.04062963574603]
Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
論文 参考訳(メタデータ) (2024-01-29T04:36:39Z) - CCA: Collaborative Competitive Agents for Image Editing [55.500493143796405]
本稿では,CCA(Collaborative Competitive Agents)の新たな生成モデルを提案する。
複数のLarge Language Models (LLM) ベースのエージェントを使って複雑なタスクを実行する。
この論文の主な貢献は、制御可能な中間ステップと反復最適化を備えたマルチエージェントベースの生成モデルの導入である。
論文 参考訳(メタデータ) (2024-01-23T11:46:28Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Retrieval-Generation Alignment for End-to-End Task-Oriented Dialogue
System [40.33178881317882]
本稿では、応答生成からの信号を利用して、知覚的レトリバーの学習に最大限の限界確率を適用することを提案する。
本稿では,T5とChatGPTをバックボーンモデルとして用いた3つのタスク指向対話データセットについて検討する。
論文 参考訳(メタデータ) (2023-10-13T06:03:47Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。