論文の概要: KEPo: Knowledge Evolution Poison on Graph-based Retrieval-Augmented Generation
- arxiv url: http://arxiv.org/abs/2603.11501v1
- Date: Thu, 12 Mar 2026 03:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.846575
- Title: KEPo: Knowledge Evolution Poison on Graph-based Retrieval-Augmented Generation
- Title(参考訳): KEPo: グラフベースの検索型生成における知識進化のポゾン
- Authors: Qizhi Chen, Chao Qi, Yihong Huang, Muquan Li, Rongzheng Wang, Dongyang Zhang, Ke Qin, Shuang Liang,
- Abstract要約: GraphRAG(Graph-based Retrieval-Augmented Generation)は、外部データベースから知識グラフ(KG)を構築し、LLM(Large Language Model)世代の生成スケジュールと精度を向上させる。
既存の研究は主に従来のRAGシステムへの攻撃に焦点を当てている。
本稿では,GraphRAGに特化して設計された新しい毒殺法であるKEPo(Knowledge Evolution Poison)を提案する。
- 参考スコア(独自算出の注目度): 13.66721444009715
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph-based Retrieval-Augmented Generation (GraphRAG) constructs the Knowledge Graph (KG) from external databases to enhance the timeliness and accuracy of Large Language Model (LLM) generations.However,this reliance on external data introduces new attack surfaces.Attackers can inject poisoned texts into databases to manipulate LLMs into producing harmful target responses for attacker-chosen queries.Existing research primarily focuses on attacking conventional RAG systems.However,such methods are ineffective against GraphRAG.This robustness derives from the KG abstraction of GraphRAG,which reorganizes injected text into a graph before retrieval,thereby enabling the LLM to reason based on the restructured context instead of raw poisoned passages.To expose latent security vulnerabilities in GraphRAG,we propose Knowledge Evolution Poison (KEPo),a novel poisoning attack method specifically designed for GraphRAG.For each target query,KEPo first generates a toxic event containing poisoned knowledge based on the target answer.By fabricating event backgrounds and forging knowledge evolution paths from original facts to the toxic event,it then poisons the KG and misleads the LLM into treating the poisoned knowledge as the final result.In multi-target attack scenarios,KEPo further connects multiple attack corpora,enabling their poisoned knowledge to mutually reinforce while expanding the scale of poisoned communities,thereby amplifying attack effectiveness.Experimental results across multiple datasets demonstrate that KEPo achieves state-of-the-art attack success rates for both single-target and multi-target attacks,significantly outperforming previous methods.
- Abstract(参考訳): グラフベースのRetrieval-Augmented Generation(GraphRAG)は、外部データベースから知識グラフ(KG)を構築して、大規模言語モデル(LLM)生成のタイムラインと精度を向上させる。しかしながら、外部データへの依存により、新たな攻撃面が導入された。Attackersは、LLMをデータベースに注入してアタッカークエリに対する有害なターゲット応答を生成する。既存の研究は主に、従来のRAGシステムに対する攻撃に重点を置いている。しかし、この堅牢性は、グラフRAGのKG抽象化から派生している。この堅牢性は、検索の前にテキストをインジェクトしたグラフに再編成し、LLMを、生の侵入に代えて再構成したコンテキストに基づく推論を可能にする。
関連論文リスト
- A Few Words Can Distort Graphs: Knowledge Poisoning Attacks on Graph-based Retrieval-Augmented Generation of Large Language Models [3.520018456847699]
グラフベースのRetrieval-Augmented Generation (GraphRAG)は、最近、大規模言語モデル(LLM)を強化するための有望なパラダイムとして登場した。
筆者らは2つの知識中毒攻撃 (KPA) を提案し, ソーステキスト中の少数の単語のみを改変することで, 構築したグラフを著しく変更し, グラフRAGを中毒し, 下流の推論を著しく誤解させることを示した。
論文 参考訳(メタデータ) (2025-08-06T10:01:26Z) - Poisoned-MRAG: Knowledge Poisoning Attacks to Multimodal Retrieval Augmented Generation [71.32665836294103]
マルチモーダル検索強化世代(RAG)は視覚言語モデル(VLM)の視覚的推論能力を向上させる
本研究では,マルチモーダルRAGシステムに対する最初の知識中毒攻撃であるtextitPoisoned-MRAGを紹介する。
論文 参考訳(メタデータ) (2025-03-08T15:46:38Z) - MM-PoisonRAG: Disrupting Multimodal RAG with Local and Global Poisoning Attacks [104.50239783909063]
Retrieval Augmented Generation (RAG) を用いた多モーダル大規模言語モデルは、多モーダル質問応答のようなかなり高度なタスクを持つ。
この外部知識への依存は、知識中毒攻撃(英語版)という、危険だが未発見の安全リスクを引き起こす。
マルチモーダルRAGにおける知識中毒を体系的に設計する最初のフレームワークであるMM-PoisonRAGを提案する。
論文 参考訳(メタデータ) (2025-02-25T04:23:59Z) - GraphRAG under Fire [17.154346535837764]
この研究は、GraphRAGの攻撃に対する脆弱性を調べ、興味深いセキュリティパラドックスを明らかにする。
既存のRAG中毒攻撃は、GraphRAGのグラフベースのインデックスと検索により、従来のRAGよりも効果が低い。
GragPoisonは、基礎となる知識グラフの共有関係を利用して、有害なテキストを作る新しい攻撃だ。
論文 参考訳(メタデータ) (2025-01-23T19:33:16Z) - PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models [45.409248316497674]
大規模言語モデル(LLM)は、その例外的な生成能力により、顕著な成功を収めた。
Retrieval-Augmented Generation (RAG)は、これらの制限を緩和するための最先端技術である。
RAGシステムにおける知識データベースは,新たな,実用的な攻撃面を導入している。
この攻撃面に基づいて,RAGに対する最初の知識汚職攻撃であるPoisonedRAGを提案する。
論文 参考訳(メタデータ) (2024-02-12T18:28:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。