論文の概要: Making Theft Useless: Adulteration-Based Protection of Proprietary Knowledge Graphs in GraphRAG Systems
- arxiv url: http://arxiv.org/abs/2601.00274v1
- Date: Thu, 01 Jan 2026 09:27:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.353936
- Title: Making Theft Useless: Adulteration-Based Protection of Proprietary Knowledge Graphs in GraphRAG Systems
- Title(参考訳): 盗難の無用化:GraphRAGシステムにおけるアダルト化に基づくプロプライエタリ知識グラフの保護
- Authors: Weijie Wang, Peizhuo Lv, Yan Wang, Rujie Dai, Guokun Xu, Qiujian Lv, Hangcheng Liu, Weiqing Huang, Wei Dong, Jiaheng Zhang,
- Abstract要約: AURAは、盗まれた知識グラフを敵に使用不能にするために設計された、データアダルメレーションに基づく新しいフレームワークである。
AURAは認証されていないシステムの性能を5.3%の精度で低下させ、認証されたユーザーに対して100%の忠実さを維持している。
- 参考スコア(独自算出の注目度): 20.88629636982452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Retrieval-Augmented Generation (GraphRAG) has emerged as a key technique for enhancing Large Language Models (LLMs) with proprietary Knowledge Graphs (KGs) in knowledge-intensive applications. As these KGs often represent an organization's highly valuable intellectual property (IP), they face a significant risk of theft for private use. In this scenario, attackers operate in isolated environments. This private-use threat renders passive defenses like watermarking ineffective, as they require output access for detection. Simultaneously, the low-latency demands of GraphRAG make strong encryption which incurs prohibitive overhead impractical. To address these challenges, we propose AURA, a novel framework based on Data Adulteration designed to make any stolen KG unusable to an adversary. Our framework pre-emptively injects plausible but false adulterants into the KG. For an attacker, these adulterants deteriorate the retrieved context and lead to factually incorrect responses. Conversely, for authorized users, a secret key enables the efficient filtering of all adulterants via encrypted metadata tags before they are passed to the LLM, ensuring query results remain completely accurate. Our evaluation demonstrates the effectiveness of this approach: AURA degrades the performance of unauthorized systems to an accuracy of just 5.3%, while maintaining 100% fidelity for authorized users with negligible overhead. Furthermore, AURA proves robust against various sanitization attempts, retaining 80.2% of its adulterants.
- Abstract(参考訳): Graph Retrieval-Augmented Generation (GraphRAG) は、知識集約型アプリケーションにおいて、独自の知識グラフ(KG)を備えた大規模言語モデル(LLM)を拡張するための重要なテクニックとして登場した。
これらのKGは、組織の非常に価値の高い知的財産(IP)を表すことが多いため、私的使用のための盗難の重大なリスクに直面している。
このシナリオでは、攻撃者は独立した環境で動作します。
このプライベートユース脅威は、検出に出力アクセスを必要とするため、透かしのようなパッシブディフェンスを非効率にします。
同時に、GraphRAGの低レイテンシ要求は強力な暗号化を行い、これは非現実的なオーバーヘッドを引き起こす。
これらの課題に対処するために,盗難KGを敵に使用不能にするためのデータアダルメレーションに基づく新しいフレームワークであるAURAを提案する。
筆者らの枠組みは,KGに有能だが偽のアパレルトを注入するものである。
攻撃者にとって、これらの暴徒は回収された文脈を悪化させ、事実的に誤った反応をもたらす。
逆に、認証されたユーザにとって、秘密鍵はLLMに渡される前に暗号化メタデータタグを通じて全てのアダルトを効率的にフィルタリングし、クエリ結果が完全に正確であることを保証する。
AURAは、未承認システムの性能を5.3%の精度に低下させ、認証されたユーザの100%の忠実さを無視できないオーバーヘッドで維持する。
さらに、AURAは様々な衛生化の試みに対して堅牢であり、アパレルトの80.2%を維持している。
関連論文リスト
- On Protecting Agentic Systems' Intellectual Property via Watermarking [17.334130453604313]
AgentWMはエージェントモデル用に設計された最初の透かしフレームワークである。
AgentWMは、機能的に同一のツール実行パスの分布を微妙にバイアスすることで、アクションシーケンスのセマンティックな等価性を利用して、透かしを注入する。
我々は,エージェントIPを適応的敵に対して効果的に保護できることを確認した。
論文 参考訳(メタデータ) (2026-02-09T09:02:15Z) - The Trojan Knowledge: Bypassing Commercial LLM Guardrails via Harmless Prompt Weaving and Adaptive Tree Search [58.8834056209347]
大規模言語モデル(LLM)は、有害な出力を誘導するために安全ガードレールをバイパスするジェイルブレイク攻撃に弱いままである。
CKA-Agent(Correlated Knowledge Attack Agent)は、ターゲットモデルの知識基盤の適応的木構造探索としてジェイルブレイクを再構成する動的フレームワークである。
論文 参考訳(メタデータ) (2025-12-01T07:05:23Z) - MirGuard: Towards a Robust Provenance-based Intrusion Detection System Against Graph Manipulation Attacks [13.92935628832727]
MirGuardは、ロジック対応のマルチビュー拡張とコントラスト表現学習を組み合わせた異常検出フレームワークである。
MirGuardは、さまざまなグラフ操作攻撃に対して、最先端の検出器の堅牢性を大幅に上回っている。
論文 参考訳(メタデータ) (2025-08-14T13:35:51Z) - A Label-Free Heterophily-Guided Approach for Unsupervised Graph Fraud Detection [60.09453163562244]
本稿では,非教師付きGFDのための非教師付きグラフ不正検出手法(HUGE)を提案する。
推定モジュールでは、GFD の臨界グラフ特性をキャプチャする HALO と呼ばれる新しいラベルフリーなヘテロフィリー計量を設計する。
アライメントに基づく不正検出モジュールにおいて、ランキング損失と非対称アライメント損失を有する合同GNNアーキテクチャを開発する。
論文 参考訳(メタデータ) (2025-02-18T22:07:36Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - TrustRAG: Enhancing Robustness and Trustworthiness in Retrieval-Augmented Generation [31.231916859341865]
TrustRAGは、生成のために取得される前に、悪意のある、無関係なコンテンツを体系的にフィルタリングするフレームワークである。
TrustRAGは、検索精度、効率、攻撃抵抗を大幅に改善する。
論文 参考訳(メタデータ) (2025-01-01T15:57:34Z) - MADE: Graph Backdoor Defense with Masked Unlearning [24.97718571096943]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクの処理能力に優れていたため、研究者から大きな注目を集めている。
最近の研究では、GNNはトレーニングデータセットにトリガを注入することで実装されたバックドア攻撃に対して脆弱であることが示されている。
この脆弱性は、薬物発見のようなセンシティブなドメインにおけるGNNの応用に重大なセキュリティリスクをもたらす。
論文 参考訳(メタデータ) (2024-11-26T22:50:53Z) - Using Retriever Augmented Large Language Models for Attack Graph Generation [0.7619404259039284]
本稿では,大規模言語モデル(LLM)を利用したアタックグラフの自動生成手法について検討する。
これは、Common Vulnerabilities and Exposures(CommonLLMs)を使用して、脅威レポートからアタックグラフを作成する方法を示している。
論文 参考訳(メタデータ) (2024-08-11T19:59:08Z) - DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。