論文の概要: ATM: Adversarial Tuning Multi-agent System Makes a Robust Retrieval-Augmented Generator
- arxiv url: http://arxiv.org/abs/2405.18111v3
- Date: Tue, 08 Oct 2024 06:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:27.254460
- Title: ATM: Adversarial Tuning Multi-agent System Makes a Robust Retrieval-Augmented Generator
- Title(参考訳): ATM: 逆調整マルチエージェントシステムでロバストな検索用発電機を作る
- Authors: Junda Zhu, Lingyong Yan, Haibo Shi, Dawei Yin, Lei Sha,
- Abstract要約: 大規模言語モデル (LLM) は、検索強化世代 (RAG) の恩恵を受けることが証明されている。
ATM(Adversarial Tuning Multi-agent System)を用いた検索拡張ジェネレータの最適化を提案する。
- 参考スコア(独自算出の注目度): 22.81784849762196
- License:
- Abstract: Large language models (LLMs) are proven to benefit a lot from retrieval-augmented generation (RAG) in alleviating hallucinations confronted with knowledge-intensive questions. RAG adopts information retrieval techniques to inject external knowledge from semantic-relevant documents as input contexts. However, since today's Internet is flooded with numerous noisy and fabricating content, it is inevitable that RAG systems are vulnerable to these noises and prone to respond incorrectly. To this end, we propose to optimize the retrieval-augmented Generator with an Adversarial Tuning Multi-agent system (ATM). The ATM steers the Generator to have a robust perspective of useful documents for question answering with the help of an auxiliary Attacker agent through adversarially tuning the agents for several iterations. After rounds of multi-agent iterative tuning, the Generator can eventually better discriminate useful documents amongst fabrications. The experimental results verify the effectiveness of ATM and we also observe that the Generator can achieve better performance compared to the state-of-the-art baselines.
- Abstract(参考訳): 大言語モデル(LLM)は、知識集約的な質問に直面する幻覚を緩和するために、検索増強世代(RAG)から多くの恩恵を受けることが証明されている。
RAGは情報検索技術を採用し、意味関連文書から外部知識を入力コンテキストとして注入する。
しかし、今日のインターネットには多くのノイズや製造コンテンツが溢れているため、RAGシステムがこれらのノイズに対して脆弱であり、誤った応答をしがちであることは避けられない。
そこで本稿では,ATM (Adversarial Tuning Multi-agent System) を用いた検索拡張ジェネレータを提案する。
ATMは、複数の繰り返しエージェントを逆向きに調整することで、補助攻撃エージェントの助けを借りて質問に答えるための有用な文書の堅牢な視点を持つように、ジェネレータを操縦する。
マルチエージェント反復チューニングのラウンドの後、ジェネレータは最終的に製造において有用な文書をよりよく識別することができる。
また, ATMの有効性を検証し, 現状のベースラインと比較して, ジェネレータの性能が向上することを示した。
関連論文リスト
- Self-adaptive Multimodal Retrieval-Augmented Generation [0.0]
我々は,自己適応型マルチモーダル検索型生成(SAM-RAG)という新しい手法を提案する。
SAM-RAGは、必要なときに画像キャプションを含む入力クエリに基づいて関連文書を動的にフィルタリングするだけでなく、検索した文書と出力の両方の品質を検証する。
その結果,SAM-RAGは検索精度と応答生成の両面で既存の最先端手法を上回ることがわかった。
論文 参考訳(メタデータ) (2024-10-15T06:39:35Z) - Retriever-and-Memory: Towards Adaptive Note-Enhanced Retrieval-Augmented Generation [72.70046559930555]
本稿では,複雑なQAタスクに対する適応ノート拡張RAG(Adaptive Note-Enhanced RAG)と呼ばれる汎用RAGアプローチを提案する。
具体的には、Adaptive-Noteは、知識の成長に関する包括的な視点を導入し、ノート形式で新しい情報を反復的に収集する。
さらに,適切な知識探索を促進するために,適応的な音符ベースの停止探索戦略を用いて,「何を検索し,いつ停止するか」を判断する。
論文 参考訳(メタデータ) (2024-10-11T14:03:29Z) - Zero-Shot Machine-Generated Text Detection Using Mixture of Large Language Models [35.67613230687864]
大規模言語モデル(LLM)は大規模に訓練され、強力なテキスト生成能力を備えている。
それぞれの強みを組み合わせるための理論的な新しいアプローチを提案する。
種々のジェネレータLSMを用いた実験により,検出のロバスト性を効果的に向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-11T20:55:12Z) - Speculative RAG: Enhancing Retrieval Augmented Generation through Drafting [68.90949377014742]
Speculative RAG(投機的RAG)は、より大規模なジェネラリストLMを利用して、より小さな蒸留専門のLMによって並列に生成された複数のRAGドラフトを効率よく検証するフレームワークである。
提案手法は,より小さな専門家のLMにドラフト作成を委譲することでRAGを加速し,より大きなジェネラリストのLMがドラフトに1回の検証パスを実行する。
PubHealthの従来のRAGシステムと比較して、レイテンシを51%削減しながら、最大12.97%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-07-11T06:50:19Z) - Towards a Search Engine for Machines: Unified Ranking for Multiple Retrieval-Augmented Large Language Models [21.115495457454365]
uRAGは、複数の下流検索拡張生成システム(RAG)を提供する統合検索エンジンを備えたフレームワークである。
我々は、訓練に従事する18のRAGシステムと、uRAGを検索エンジンの新規ユーザとして使用する18の未知のRAGシステムからなる大規模な実験エコシステムを構築した。
論文 参考訳(メタデータ) (2024-04-30T19:51:37Z) - Evaluating Robustness of Generative Search Engine on Adversarial Factual Questions [89.35345649303451]
生成検索エンジンは、人々がオンラインで情報を求める方法を変える可能性を秘めている。
しかし,既存の大規模言語モデル(LLM)が支援する生成検索エンジンからの応答は必ずしも正確ではない。
検索強化世代は、敵がシステム全体を回避できるため、安全上の懸念を増す。
論文 参考訳(メタデータ) (2024-02-25T11:22:19Z) - Corrective Retrieval Augmented Generation [36.04062963574603]
Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
論文 参考訳(メタデータ) (2024-01-29T04:36:39Z) - CCA: Collaborative Competitive Agents for Image Editing [59.54347952062684]
本稿では,CCA(Collaborative Competitive Agents)の新たな生成モデルを提案する。
複数のLarge Language Models (LLM) ベースのエージェントを使って複雑なタスクを実行する。
この論文の主な貢献は、制御可能な中間ステップと反復最適化を備えたマルチエージェントベースの生成モデルの導入である。
論文 参考訳(メタデータ) (2024-01-23T11:46:28Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Retrieval-Generation Alignment for End-to-End Task-Oriented Dialogue
System [40.33178881317882]
本稿では、応答生成からの信号を利用して、知覚的レトリバーの学習に最大限の限界確率を適用することを提案する。
本稿では,T5とChatGPTをバックボーンモデルとして用いた3つのタスク指向対話データセットについて検討する。
論文 参考訳(メタデータ) (2023-10-13T06:03:47Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。