論文の概要: Intruding with Words: Towards Understanding Graph Injection Attacks at the Text Level
- arxiv url: http://arxiv.org/abs/2405.16405v1
- Date: Sun, 26 May 2024 02:12:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-05-28 21:28:05.101525
- Title: Intruding with Words: Towards Understanding Graph Injection Attacks at the Text Level
- Title(参考訳): 単語による侵入:テキストレベルでのグラフ注入攻撃の理解に向けて
- Authors: Runlin Lei, Yuwei Hu, Yuchen Ren, Zhewei Wei,
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なアプリケーションにまたがるが、敵の攻撃に弱いままである。
本稿では,テキストレベルでのグラフインジェクションアタック(GIA)の探索の先駆者となる。
埋め込みレベルで見過ごされた要素であるテキストの解釈可能性(英語版)が、攻撃強度において重要な役割を担っていることを示す。
- 参考スコア(独自算出の注目度): 21.003091265006102
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) excel across various applications but remain vulnerable to adversarial attacks, particularly Graph Injection Attacks (GIAs), which inject malicious nodes into the original graph and pose realistic threats. Text-attributed graphs (TAGs), where nodes are associated with textual features, are crucial due to their prevalence in real-world applications and are commonly used to evaluate these vulnerabilities. However, existing research only focuses on embedding-level GIAs, which inject node embeddings rather than actual textual content, limiting their applicability and simplifying detection. In this paper, we pioneer the exploration of GIAs at the text level, presenting three novel attack designs that inject textual content into the graph. Through theoretical and empirical analysis, we demonstrate that text interpretability, a factor previously overlooked at the embedding level, plays a crucial role in attack strength. Among the designs we investigate, the Word-frequency-based Text-level GIA (WTGIA) is particularly notable for its balance between performance and interpretability. Despite the success of WTGIA, we discover that defenders can easily enhance their defenses with customized text embedding methods or large language model (LLM)--based predictors. These insights underscore the necessity for further research into the potential and practical significance of text-level GIAs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなアプリケーションにまたがるが、敵攻撃、特に悪意のあるノードを元のグラフに注入し、現実的な脅威を引き起こすグラフインジェクション攻撃(GIA)に弱いままである。
ノードがテキスト機能に関連付けられているテキスト分散グラフ(TAG)は、現実世界のアプリケーションで広く使われているため、これらの脆弱性を評価するために一般的に使用される。
しかし、既存の研究は、実際のテキストコンテンツではなくノード埋め込みを注入し、適用性を制限し、検出を単純化する埋め込みレベルGIAのみに焦点を当てている。
本稿では,テキストレベルでのGIAの探索を開拓し,テキストコンテンツをグラフに注入する3つの新たな攻撃設計を提案する。
理論的および経験的分析を通じて, 埋め込みレベルがこれまで見過ごされていたテキスト解釈能力が, 攻撃強度において重要な役割を担っていることを実証した。
本稿では,Word- frequency-based Text-level GIA(WTGIA)について述べる。
WTGIAの成功にもかかわらず、ディフェンダーはカスタマイズされたテキスト埋め込み手法や大言語モデル(LLM)ベースの予測器で防御を強化できることが判明した。
これらの知見は、テキストレベルのGIAの可能性と実践的重要性について、さらなる研究の必要性を浮き彫りにしている。
関連論文リスト
- A Few Words Can Distort Graphs: Knowledge Poisoning Attacks on Graph-based Retrieval-Augmented Generation of Large Language Models [3.520018456847699]
グラフベースのRetrieval-Augmented Generation (GraphRAG)は、最近、大規模言語モデル(LLM)を強化するための有望なパラダイムとして登場した。
筆者らは2つの知識中毒攻撃 (KPA) を提案し, ソーステキスト中の少数の単語のみを改変することで, 構築したグラフを著しく変更し, グラフRAGを中毒し, 下流の推論を著しく誤解させることを示した。
論文 参考訳(メタデータ) (2025-08-06T10:01:26Z) - DGP: A Dual-Granularity Prompting Framework for Fraud Detection with Graph-Enhanced LLMs [55.13817504780764]
実世界の不正検出アプリケーションは、しばしばテキストデータに富んだノード特徴とグラフ構造情報を共同で活用するグラフ学習技術の恩恵を受ける。
グラフ強化LSMは、グラフ情報をプロンプトに変換する、有望なグラフ学習アプローチとして登場します。
目的ノードの細粒度テキストの詳細を保存し,情報過負荷を軽減するDGPを提案する。
論文 参考訳(メタデータ) (2025-07-29T10:10:47Z) - Navigating the Black Box: Leveraging LLMs for Effective Text-Level Graph Injection Attacks [14.181622082567124]
本稿では,テキスト分散グラフ(TAG)に適した新しいブラックボックスGIAフレームワークであるATAG-LLMを紹介する。
提案手法は,大言語モデル(LLM)を利用して,解釈可能なテキストレベルのノード属性を直接生成する。
厳格なブラックボックス設定では、ターゲットノードを最小限のトレーニングコストで効率よく摂動し、TAGに対するテキストレベルのグラフインジェクション攻撃を確実にする。
論文 参考訳(メタデータ) (2025-06-16T09:16:21Z) - TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks [3.3238054848751535]
テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
論文 参考訳(メタデータ) (2025-06-13T14:48:01Z) - GraphRAG under Fire [13.69098945498758]
この研究は、GraphRAGの攻撃に対する脆弱性を調べ、興味深いセキュリティパラドックスを明らかにする。
従来のRAGと比較して、GraphRAGのグラフベースのインデックスと検索は、単純な中毒攻撃に対するレジリエンスを高める。
GRAGPoisonは、基礎となる知識グラフの共有関係を利用して有毒テキストを作成する新しい攻撃である。
論文 参考訳(メタデータ) (2025-01-23T19:33:16Z) - Is the Digital Forensics and Incident Response Pipeline Ready for Text-Based Threats in LLM Era? [3.3205885925042704]
生成AIの時代、NTG(Neural Text Generators)が広く採用され、新たなサイバーセキュリティの課題が提示された。
本稿では,テキストベースのセキュリティシステムに適したDFIRパイプラインを厳格に評価する。
人-NTG共同著者による新たなテキスト攻撃の導入により,従来のDFIR手法の重大な脆弱性が明らかになった。
論文 参考訳(メタデータ) (2024-07-25T08:42:53Z) - Relaxing Graph Transformers for Adversarial Attacks [49.450581960551276]
グラフトランスフォーマー(GT)は、いくつかのベンチマークでMessage-Passing GNNを上回り、その逆の堅牢性は明らかにされていない。
本研究では,(1)ランダムウォークPE,(2)ペアワイドショートパス,(3)スペクトル摂動に基づく3つの代表的なアーキテクチャを対象とすることで,これらの課題を克服する。
評価の結果, 破滅的に脆弱であり, 作業の重要性と適応攻撃の必要性を浮き彫りにする可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-16T14:24:58Z) - Attacks on Node Attributes in Graph Neural Networks [32.40598187698689]
本研究では,特徴に基づく敵対攻撃の適用を通じて,グラフモデルの脆弱性について検討する。
以上の結果から,GAD(Projected Gradient Descent)を用いた決定時間攻撃は,平均ノード埋め込みとグラフコントラスト学習戦略を用いた中毒攻撃に比べ,より強力であることが示唆された。
論文 参考訳(メタデータ) (2024-02-19T17:52:29Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Learning-based Hybrid Local Search for the Hard-label Textual Attack [53.92227690452377]
我々は,攻撃者が予測ラベルにのみアクセス可能な,滅多に調査されていないが厳格な設定,すなわちハードラベル攻撃を考える。
そこで本研究では,Learning-based Hybrid Local Search (LHLS)アルゴリズムという,新たなハードラベル攻撃を提案する。
我々のLHLSは、攻撃性能と敵の品質に関する既存のハードラベル攻撃を著しく上回っている。
論文 参考訳(メタデータ) (2022-01-20T14:16:07Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。