論文の概要: VaccineRAG: Boosting Multimodal Large Language Models' Immunity to Harmful RAG Samples
- arxiv url: http://arxiv.org/abs/2509.04502v1
- Date: Tue, 02 Sep 2025 04:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.340108
- Title: VaccineRAG: Boosting Multimodal Large Language Models' Immunity to Harmful RAG Samples
- Title(参考訳): VaccineRAG: 有害なRAGサンプルに対するマルチモーダル大言語モデルの免疫を増強する
- Authors: Qixin Sun, Ziqin Wang, Hengyuan Zhao, Yilin Li, Kaiyou Song, Linjiang Huang, Xiaolin Hu, Qingpei Guo, Si Liu,
- Abstract要約: VaccineRAGは、新しいChain-of-Thoughtベースの検索強化生成データセットである。
VaccineRAGは、正/負のサンプル比の異なるデータを用いてモデルを評価するためにベンチマークを使用する。
LLMに各サンプルに対する明示的なチェーン・オブ・ソート分析を生成するように促すことで、モデルのサンプル識別能力を向上する。
- 参考スコア(独自算出の注目度): 40.65748922891177
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Retrieval Augmented Generation enhances the response accuracy of Large Language Models (LLMs) by integrating retrieval and generation modules with external knowledge, demonstrating particular strength in real-time queries and Visual Question Answering tasks. However, the effectiveness of RAG is frequently hindered by the precision of the retriever: many retrieved samples fed into the generation phase are irrelevant or misleading, posing a critical bottleneck to LLMs' performance. To address this challenge, we introduce VaccineRAG, a novel Chain-of-Thought-based retrieval-augmented generation dataset. On one hand, VaccineRAG employs a benchmark to evaluate models using data with varying positive/negative sample ratios, systematically exposing inherent weaknesses in current LLMs. On the other hand, it enhances models' sample-discrimination capabilities by prompting LLMs to generate explicit Chain-of-Thought (CoT) analysis for each sample before producing final answers. Furthermore, to enhance the model's ability to learn long-sequence complex CoT content, we propose Partial-GRPO. By modeling the outputs of LLMs as multiple components rather than a single whole, our model can make more informed preference selections for complex sequences, thereby enhancing its capacity to learn complex CoT. Comprehensive evaluations and ablation studies on VaccineRAG validate the effectiveness of the proposed scheme. The code and dataset will be publicly released soon.
- Abstract(参考訳): Retrieval Augmented Generationは、検索および生成モジュールを外部の知識と統合することにより、Large Language Models(LLM)の応答精度を高め、リアルタイムクエリやビジュアル質問応答タスクにおいて、特に強みを示す。
しかしながら、RAGの有効性はレトリバーの精度によってしばしば阻害される: 生成相に供給された多くの回収サンプルは無関係または誤解を招くため、LLMの性能に重大なボトルネックを生じさせる。
この課題に対処するために、我々は新しいChain-of-Thoughtベースの検索強化生成データセットであるVaccineRAGを紹介する。
一方、VaccineRAGは、様々な正/負のサンプル比を持つデータを用いてモデルを評価するためにベンチマークを使用し、現在のLCMに固有の弱点を体系的に露呈する。
一方, サンプル識別能力は, 最終回答を生成する前に, LLMに対して各サンプルに対して明示的連鎖(CoT)解析を起こさせるように促すことによって向上する。
さらに,長いシーケンスの複雑なCoTコンテンツを学習するモデルの能力を高めるために,Partial-GRPOを提案する。
LLMの出力を1つの全体ではなく複数のコンポーネントとしてモデル化することにより、複雑なシーケンスに対してより情報的な選好選択を行うことが可能となり、複雑なCoTを学習する能力が向上する。
VaccineRAGの総合的評価とアブレーション研究により,提案手法の有効性が検証された。
コードとデータセットはまもなく公開される予定だ。
関連論文リスト
- Ext2Gen: Alignment through Unified Extraction and Generation for Robust Retrieval-Augmented Generation [18.570899885235104]
提案するExt2Genは,回答を生成する前にクエリ関連文を抽出することでRAGを強化する新しい抽出列生成モデルである。
実験により、Ext2Genはクエリ関連文を高い精度とリコールで効果的に識別し、信頼性の高い回答をもたらすことが示された。
論文 参考訳(メタデータ) (2025-02-28T06:46:53Z) - Chain-of-Retrieval Augmented Generation [72.06205327186069]
本稿では,o1-like RAGモデルを学習し,最終回答を生成する前に段階的に関連情報を抽出・推論する手法を提案する。
提案手法であるCoRAGは,進化状態に基づいて動的にクエリを再構成する。
論文 参考訳(メタデータ) (2025-01-24T09:12:52Z) - Fine-Tuning or Fine-Failing? Debunking Performance Myths in Large Language Models [0.8399688944263842]
大きな言語モデル(LLM)は、入力クエリから人間のようなテキストを理解し、生成する能力を持つ。
本研究では、この概念を、レトリーバル拡張生成(RAG)パイプライン内のLLMの統合に拡張する。
データ抽出と文脈理解における微調整がLLMの能力に与える影響を評価する。
論文 参考訳(メタデータ) (2024-06-17T04:35:17Z) - Enhancing LLM Factual Accuracy with RAG to Counter Hallucinations: A Case Study on Domain-Specific Queries in Private Knowledge-Bases [9.478012553728538]
大規模言語モデル(LLM)の現実的精度を向上させるために,検索拡張生成(RAG)を利用するエンド・ツー・エンドのシステム設計を提案する。
我々のシステムはRAGパイプラインと上流データセット処理と下流性能評価を統合している。
本実験は,ドメイン固有で時間に敏感な質問に対して,より正確な回答を生成するシステムの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-15T16:30:14Z) - Enhancing Large Language Model Performance To Answer Questions and
Extract Information More Accurately [2.1715455600756646]
大きな言語モデル(LLM)は質問に対する応答を生成する。
それらの効果は、答えの最適でない品質や、質問に対する正確な回答を提供するための失敗によってしばしば妨げられる。
これらの課題に対処するため、モデルを改善するためのフィードバックやサンプルを含む、微調整プロセスが採用されている。
論文 参考訳(メタデータ) (2024-01-27T00:18:07Z) - ReEval: Automatic Hallucination Evaluation for Retrieval-Augmented Large Language Models via Transferable Adversarial Attacks [91.55895047448249]
本稿では,LLMベースのフレームワークであるReEvalについて述べる。
本稿では、ChatGPTを用いてReEvalを実装し、2つの人気のあるオープンドメインQAデータセットのバリエーションを評価する。
我々の生成したデータは人間可読であり、大きな言語モデルで幻覚を引き起こすのに役立ちます。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。