論文の概要: A Few Words Can Distort Graphs: Knowledge Poisoning Attacks on Graph-based Retrieval-Augmented Generation of Large Language Models
- arxiv url: http://arxiv.org/abs/2508.04276v2
- Date: Tue, 12 Aug 2025 09:00:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 12:16:51.380973
- Title: A Few Words Can Distort Graphs: Knowledge Poisoning Attacks on Graph-based Retrieval-Augmented Generation of Large Language Models
- Title(参考訳): グラフを歪められる単語は少ない: グラフに基づく検索強化された大規模言語モデルに対する知識中毒
- Authors: Jiayi Wen, Tianxin Chen, Zhirun Zheng, Cheng Huang,
- Abstract要約: グラフベースのRetrieval-Augmented Generation (GraphRAG)は、最近、大規模言語モデル(LLM)を強化するための有望なパラダイムとして登場した。
筆者らは2つの知識中毒攻撃 (KPA) を提案し, ソーステキスト中の少数の単語のみを改変することで, 構築したグラフを著しく変更し, グラフRAGを中毒し, 下流の推論を著しく誤解させることを示した。
- 参考スコア(独自算出の注目度): 3.520018456847699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph-based Retrieval-Augmented Generation (GraphRAG) has recently emerged as a promising paradigm for enhancing large language models (LLMs) by converting raw text into structured knowledge graphs, improving both accuracy and explainability. However, GraphRAG relies on LLMs to extract knowledge from raw text during graph construction, and this process can be maliciously manipulated to implant misleading information. Targeting this attack surface, we propose two knowledge poisoning attacks (KPAs) and demonstrate that modifying only a few words in the source text can significantly change the constructed graph, poison the GraphRAG, and severely mislead downstream reasoning. The first attack, named Targeted KPA (TKPA), utilizes graph-theoretic analysis to locate vulnerable nodes in the generated graphs and rewrites the corresponding narratives with LLMs, achieving precise control over specific question-answering (QA) outcomes with a success rate of 93.1\%, while keeping the poisoned text fluent and natural. The second attack, named Universal KPA (UKPA), exploits linguistic cues such as pronouns and dependency relations to disrupt the structural integrity of the generated graph by altering globally influential words. With fewer than 0.05\% of full text modified, the QA accuracy collapses from 95\% to 50\%. Furthermore, experiments show that state-of-the-art defense methods fail to detect these attacks, highlighting that securing GraphRAG pipelines against knowledge poisoning remains largely unexplored.
- Abstract(参考訳): グラフベースのRetrieval-Augmented Generation (GraphRAG)は、最近、原文を構造化知識グラフに変換し、精度と説明可能性の両方を改善することで、大規模言語モデル(LLM)を強化するための有望なパラダイムとして登場した。
しかし、GraphRAGは、グラフ構築中に生テキストから知識を抽出するためにLLMに依存しており、このプロセスは不正に操作して誤解を招く情報を埋め込むことができる。
この攻撃面を標的として、2つの知識中毒攻撃(KPA)を提案し、ソーステキスト中の少数の単語のみを修正すれば、構築されたグラフを著しく変更し、GraphRAGを中毒させ、下流の推論を著しく誤解させることができることを示した。
Targeted KPA (TKPA) と呼ばれる最初の攻撃は、グラフ理論解析を用いて生成されたグラフ内の脆弱なノードを特定し、対応する物語をLSMで書き直し、93.1\%の成功率で特定の質問回答(QA)結果の正確な制御を達成し、有毒なテキストは流動的で自然に維持する。
第2の攻撃はUniversal KPA (UKPA) と呼ばれ、代名詞や依存関係などの言語的手がかりを利用して、グローバルな影響力のある単語を変更することによって生成されたグラフの構造的整合性を損なう。
完全なテキストの修正が 0.05 % 未満の場合、QA の精度は 95 % から 50 % に低下する。
さらに、実験により、最先端の防衛手法がこれらの攻撃を検知できないことが示され、知識中毒に対するGraphRAGパイプラインの確保は、ほとんど未発見のままであることが強調された。
関連論文リスト
- DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs [55.13817504780764]
実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
グラフ強化LSMは、グラフ情報をプロンプトに変換する、有望なグラフ学習アプローチとして登場します。
目的ノードの細粒度テキストの詳細を保存し,情報過負荷を軽減するDGPを提案する。
論文 参考訳(メタデータ) (2025-07-29T10:10:47Z) - TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks [3.3238054848751535]
テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
論文 参考訳(メタデータ) (2025-06-13T14:48:01Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [75.9865035064794]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - Cluster-Aware Attacks on Graph Watermarks [50.19105800063768]
本稿では,コミュニティ誘導型修正を回避できるクラスタ・アウェア・脅威モデルを提案する。
その結果,クラスタ・アウェア・アタックは,ランダムなベースラインよりも最大80%の精度でアトリビューション精度を低下させることができることがわかった。
グラフコミュニティにまたがる透かしノードを分散する軽量な埋め込み拡張を提案する。
論文 参考訳(メタデータ) (2025-04-24T22:49:28Z) - GraphRAG under Fire [13.69098945498758]
この研究は、GraphRAGの攻撃に対する脆弱性を調べ、興味深いセキュリティパラドックスを明らかにする。
既存のRAG中毒攻撃は、GraphRAGのグラフベースのインデックスと検索により、従来のRAGよりも効果が低い。
GragPoisonは、基礎となる知識グラフの共有関係を利用して、有害なテキストを作る新しい攻撃だ。
論文 参考訳(メタデータ) (2025-01-23T19:33:16Z) - AHSG: Adversarial Attack on High-level Semantics in Graph Neural Networks [8.512355226572254]
グラフニューラルネットワークに対する敵攻撃は、グラフトポロジとノード属性を慎重に修正することで学習者のパフォーマンスを乱すことを目的としている。
既存の方法は、修正予算とグラフ特性の違いを制約することで攻撃ステルス性を達成する。
本稿では,グラフ構造攻撃モデルであるグラフニューラルネットワークのための高レベルセマンティックス(AHSG)に対する逆アタックを提案し,プライマリセマンティクスの保持を保証する。
論文 参考訳(メタデータ) (2024-12-10T12:35:37Z) - Intruding with Words: Towards Understanding Graph Injection Attacks at the Text Level [21.003091265006102]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにまたがるが、敵の攻撃に弱いままである。
本稿では,テキストレベルでのグラフインジェクションアタック(GIA)の探索の先駆者となる。
埋め込みレベルで見過ごされた要素であるテキストの解釈可能性(英語版)が、攻撃強度において重要な役割を担っていることを示す。
論文 参考訳(メタデータ) (2024-05-26T02:12:02Z) - PoisonedRAG: Knowledge Corruption Attacks to Retrieval-Augmented Generation of Large Language Models [45.409248316497674]
大規模言語モデル(LLM)は、その例外的な生成能力により、顕著な成功を収めた。
Retrieval-Augmented Generation (RAG)は、これらの制限を緩和するための最先端技術である。
RAGシステムにおける知識データベースは,新たな,実用的な攻撃面を導入している。
この攻撃面に基づいて,RAGに対する最初の知識汚職攻撃であるPoisonedRAGを提案する。
論文 参考訳(メタデータ) (2024-02-12T18:28:36Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。