論文の概要: Adversarial Threat Vectors and Risk Mitigation for Retrieval-Augmented Generation Systems
- arxiv url: http://arxiv.org/abs/2506.00281v1
- Date: Fri, 30 May 2025 22:22:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.597078
- Title: Adversarial Threat Vectors and Risk Mitigation for Retrieval-Augmented Generation Systems
- Title(参考訳): 検索型生成システムにおける逆脅威ベクトルとリスク軽減
- Authors: Chris M. Ward, Josh Harguess,
- Abstract要約: Retrieval-Augmented Generation (RAG) システムは、Large Language Models (LLM) を外部の知識ソースと統合する。
本稿では,最近の産業採用動向を通したRAGシステムの重要性を考察し,RAGの攻撃ベクトルとして,即時注入,データ中毒,対逆クエリ操作などを挙げる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) systems, which integrate Large Language Models (LLMs) with external knowledge sources, are vulnerable to a range of adversarial attack vectors. This paper examines the importance of RAG systems through recent industry adoption trends and identifies the prominent attack vectors for RAG: prompt injection, data poisoning, and adversarial query manipulation. We analyze these threats under risk management lens, and propose robust prioritized control list that includes risk-mitigating actions like input validation, adversarial training, and real-time monitoring.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) システムは、Large Language Models (LLM) を外部の知識源と統合し、様々な敵攻撃ベクトルに対して脆弱である。
本稿では,最近の産業採用動向を通したRAGシステムの重要性を考察し,RAGの攻撃ベクトルとして,即時注入,データ中毒,対逆クエリ操作などを挙げる。
我々は、リスク管理レンズの下でこれらの脅威を分析し、入力検証、敵訓練、リアルタイム監視のようなリスク軽減行動を含む、堅牢な優先順位付けされた制御リストを提案する。
関連論文リスト
- The Silent Saboteur: Imperceptible Adversarial Attacks against Black-Box Retrieval-Augmented Generation Systems [101.68501850486179]
本稿では,RAGシステムに対する敵攻撃について検討し,その脆弱性を同定する。
このタスクは、ターゲット文書を検索する非知覚的な摂動を見つけることを目的としており、もともとはトップ$k$の候補セットから除外されていた。
本稿では、攻撃者とターゲットRAG間の相互作用を追跡する強化学習ベースのフレームワークであるReGENTを提案する。
論文 参考訳(メタデータ) (2025-05-24T08:19:25Z) - Chain-of-Thought Poisoning Attacks against R1-based Retrieval-Augmented Generation Systems [39.05753852489526]
既存の敵攻撃法は通常、知識ベース中毒を利用してRAGシステムの脆弱性を調査する。
本稿では、R1ベースのRAGシステムからの推論プロセステンプレートを用いて、誤った知識を敵の文書にラップし、それらを知識ベースに注入してRAGシステムを攻撃する。
提案手法の鍵となる考え方は,モデルのトレーニング信号に一致したチェーン・オブ・シンクレット・パターンをシミュレートすることで,正史的推論プロセスとしてモデルによって誤解される可能性がある,というものである。
論文 参考訳(メタデータ) (2025-05-22T08:22:46Z) - ControlNET: A Firewall for RAG-based LLM System [9.362574883495927]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)の事実精度と領域適応性を著しく向上させた。
RAGは外部知識を統合することで幻覚を緩和するが、プライバシのリスクとセキュリティのリスク、特にデータ侵害のリスクとデータ中毒のリスクを導入する。
本稿では,これらの脆弱性からRAGベースのLLMシステムを保護するために設計された,AIファイアウォールであるControlNETを提案する。
論文 参考訳(メタデータ) (2025-04-13T14:18:35Z) - MM-PoisonRAG: Disrupting Multimodal RAG with Local and Global Poisoning Attacks [109.53357276796655]
Retrieval Augmented Generation (RAG) を備えたマルチモーダル大言語モデル(MLLM)
RAGはクエリ関連外部知識の応答を基盤としてMLLMを強化する。
この依存は、知識中毒攻撃(英語版)という、危険だが未発見の安全リスクを生じさせる。
本稿では,2つの攻撃戦略を持つ新しい知識中毒攻撃フレームワークMM-PoisonRAGを提案する。
論文 参考訳(メタデータ) (2025-02-25T04:23:59Z) - Towards More Robust Retrieval-Augmented Generation: Evaluating RAG Under Adversarial Poisoning Attacks [45.07581174558107]
Retrieval-Augmented Generation (RAG) システムは幻覚を緩和するための有望な解決策として登場した。
RAGシステムは、検索データベースに注入された悪意のあるパスが、モデルを誤誘導し、事実的に誤ったアウトプットを発生させるような、敵の毒殺攻撃に弱い。
本稿では,RAGシステムの検索と生成の両要素について検討し,攻撃に対するロバスト性を高める方法について考察する。
論文 参考訳(メタデータ) (2024-12-21T17:31:52Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。