論文の概要: UniC-RAG: Universal Knowledge Corruption Attacks to Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2508.18652v1
- Date: Tue, 26 Aug 2025 03:50:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.668987
- Title: UniC-RAG: Universal Knowledge Corruption Attacks to Retrieval-Augmented Generation
- Title(参考訳): UniC-RAG: 検索強化世代に対するユニバーサル知識破壊攻撃
- Authors: Runpeng Geng, Yanting Wang, Ying Chen, Jinyuan Jia,
- Abstract要約: 我々は、RAGシステムに対する普遍的な知識汚職攻撃であるUniC-RAGを提案する。
UniC-RAGは少数の敵対的テキストを共同で最適化し、同時に多数のユーザクエリを攻撃できる。
評価の結果,UniC-RAGは高効率であり,ベースラインを著しく上回っていることがわかった。
- 参考スコア(独自算出の注目度): 21.641766766829065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Retrieval-augmented generation (RAG) systems are widely deployed in real-world applications in diverse domains such as finance, healthcare, and cybersecurity. However, many studies showed that they are vulnerable to knowledge corruption attacks, where an attacker can inject adversarial texts into the knowledge database of a RAG system to induce the LLM to generate attacker-desired outputs. Existing studies mainly focus on attacking specific queries or queries with similar topics (or keywords). In this work, we propose UniC-RAG, a universal knowledge corruption attack against RAG systems. Unlike prior work, UniC-RAG jointly optimizes a small number of adversarial texts that can simultaneously attack a large number of user queries with diverse topics and domains, enabling an attacker to achieve various malicious objectives, such as directing users to malicious websites, triggering harmful command execution, or launching denial-of-service attacks. We formulate UniC-RAG as an optimization problem and further design an effective solution to solve it, including a balanced similarity-based clustering method to enhance the attack's effectiveness. Our extensive evaluations demonstrate that UniC-RAG is highly effective and significantly outperforms baselines. For instance, UniC-RAG could achieve over 90% attack success rate by injecting 100 adversarial texts into a knowledge database with millions of texts to simultaneously attack a large set of user queries (e.g., 2,000). Additionally, we evaluate existing defenses and show that they are insufficient to defend against UniC-RAG, highlighting the need for new defense mechanisms in RAG systems.
- Abstract(参考訳): Retrieval-augmented Generation (RAG) システムは、金融、医療、サイバーセキュリティといった様々な分野の現実世界のアプリケーションに広くデプロイされている。
しかし、多くの研究では、攻撃者がRAGシステムの知識データベースに敵のテキストを注入し、LLMを誘導して攻撃者が望んだ出力を生成する、知識汚職攻撃に弱いことが示されている。
既存の研究は主に、類似したトピック(またはキーワード)で特定のクエリやクエリを攻撃することに焦点を当てている。
本稿では,RAGシステムに対する普遍的知識汚職攻撃であるUniC-RAGを提案する。
以前の作業とは異なり、UniC-RAGは少数の敵対的テキストを共同で最適化し、多様なトピックやドメインで多数のユーザクエリを同時に攻撃し、攻撃者は悪意のあるウェブサイトにユーザーを誘導したり、悪質なコマンド実行を誘発したり、サービス停止攻撃を開始するなど、様々な悪意ある目的を達成することができる。
我々は、UniC-RAGを最適化問題として定式化し、さらに攻撃の有効性を高めるための類似性に基づくクラスタリング手法を含む効率的な解を設計する。
広範に評価した結果,UniC-RAGは極めて有効であり,ベースラインを著しく上回っていることがわかった。
例えば、UniC-RAGは、100の敵対的テキストを数百万のテキストを持つ知識データベースに注入して、巨大なユーザクエリ(例えば2000)を同時に攻撃することで、90%以上の攻撃成功率を達成することができる。
さらに,既存の防衛機構を評価し,RAGシステムにおける新たな防衛機構の必要性を強調し,UniC-RAGに対する防衛に不十分であることを示す。
関連論文リスト
- CPA-RAG:Covert Poisoning Attacks on Retrieval-Augmented Generation in Large Language Models [15.349703228157479]
Retrieval-Augmented Generation (RAG)は、外部知識を取り入れた大規模言語モデル(LLM)を強化する。
既存のRAGシステムに対する中毒法には、一般化の欠如や、敵のテキストにおける流布の欠如など、制限がある。
CPA-RAGは,検索プロセスを操作することで,対象の回答を誘導するクエリ関連テキストを生成するブラックボックスの対向フレームワークである。
論文 参考訳(メタデータ) (2025-05-26T11:48:32Z) - Benchmarking Poisoning Attacks against Retrieval-Augmented Generation [12.573766276297441]
Retrieval-Augmented Generation (RAG) は、推論中に外部知識を取り入れることで、大規模言語モデルにおける幻覚の緩和に有効であることが証明されている。
我々は、RAGに対する中毒攻撃を評価するための、最初の包括的なベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-24T06:17:59Z) - HijackRAG: Hijacking Attacks against Retrieval-Augmented Large Language Models [18.301965456681764]
我々は、新しい脆弱性、検索プロンプトハイジャック攻撃(HijackRAG)を明らかにする。
HijackRAGは、悪意のあるテキストを知識データベースに注入することで、攻撃者がRAGシステムの検索機構を操作できるようにする。
攻撃者の知識の異なるレベルに合わせたブラックボックスとホワイトボックスの攻撃戦略を提案する。
論文 参考訳(メタデータ) (2024-10-30T09:15:51Z) - Certifiably Robust RAG against Retrieval Corruption [58.677292678310934]
Retrieval-augmented Generation (RAG) は、回復汚職攻撃に弱いことが示されている。
本稿では,ロバストRAGを検索汚職攻撃に対する最初の防御フレームワークとして提案する。
論文 参考訳(メタデータ) (2024-05-24T13:44:25Z) - PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models [45.409248316497674]
大規模言語モデル(LLM)は、その例外的な生成能力により、顕著な成功を収めた。
Retrieval-Augmented Generation (RAG)は、これらの制限を緩和するための最先端技術である。
RAGシステムにおける知識データベースは,新たな,実用的な攻撃面を導入している。
この攻撃面に基づいて,RAGに対する最初の知識汚職攻撃であるPoisonedRAGを提案する。
論文 参考訳(メタデータ) (2024-02-12T18:28:36Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。