論文の概要: LLMAtKGE: Large Language Models as Explainable Attackers against Knowledge Graph Embeddings
- arxiv url: http://arxiv.org/abs/2510.11584v1
- Date: Mon, 13 Oct 2025 16:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.452698
- Title: LLMAtKGE: Large Language Models as Explainable Attackers against Knowledge Graph Embeddings
- Title(参考訳): LLMAtKGE:知識グラフ埋め込みに対する説明可能な攻撃者としての大規模言語モデル
- Authors: Ting Li, Yang Yang, Yipeng Yu, Liang Yao, Guoqing Chao, Ruifeng Xu,
- Abstract要約: 知識グラフの埋め込みに対するアドリアック攻撃は、トリプルを削除または挿入することで、モデルがリンク予測能力を破壊することを目的としている。
最近のブラックボックス法では、攻撃性能を高めるためにテキスト情報と構造情報を組み込むことが試みられている。
本稿では,攻撃対象を選択し,人間可読な説明を生成する新しいフレームワークであるLLMAtKGEを提案する。
- 参考スコア(独自算出の注目度): 33.547989647590555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adversarial attacks on knowledge graph embeddings (KGE) aim to disrupt the model's ability of link prediction by removing or inserting triples. A recent black-box method has attempted to incorporate textual and structural information to enhance attack performance. However, it is unable to generate human-readable explanations, and exhibits poor generalizability. In the past few years, large language models (LLMs) have demonstrated powerful capabilities in text comprehension, generation, and reasoning. In this paper, we propose LLMAtKGE, a novel LLM-based framework that selects attack targets and generates human-readable explanations. To provide the LLM with sufficient factual context under limited input constraints, we design a structured prompting scheme that explicitly formulates the attack as multiple-choice questions while incorporating KG factual evidence. To address the context-window limitation and hesitation issues, we introduce semantics-based and centrality-based filters, which compress the candidate set while preserving high recall of attack-relevant information. Furthermore, to efficiently integrate both semantic and structural information into the filter, we precompute high-order adjacency and fine-tune the LLM with a triple classification task to enhance filtering performance. Experiments on two widely used knowledge graph datasets demonstrate that our attack outperforms the strongest black-box baselines and provides explanations via reasoning, and showing competitive performance compared with white-box methods. Comprehensive ablation and case studies further validate its capability to generate explanations.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)に対する敵対的攻撃は、トリプルを削除または挿入することで、モデルがリンク予測能力を破壊することを目的としている。
最近のブラックボックス法では、攻撃性能を高めるためにテキスト情報と構造情報を組み込むことが試みられている。
しかし、人間の読みやすい説明を生成できず、一般化性に乏しい。
過去数年間、大きな言語モデル(LLM)は、テキスト理解、生成、推論において強力な能力を示してきた。
本稿では,攻撃対象を選択し,人間可読な説明を生成するLLMベースの新しいフレームワークであるLLMAtKGEを提案する。
限定的な入力制約の下で十分な事実コンテキストを持つLLMを提供するため,我々は,KGの事実証拠を取り入れつつ,攻撃を複数選択の質問として明示的に定式化する構造化されたプロンプトスキームを設計する。
そこで本研究では,攻撃関連情報の高いリコールを維持しつつ,候補セットを圧縮するセマンティクスに基づく中央集権型フィルタを提案する。
さらに,フィルタに意味的情報と構造的情報の両方を効率的に統合するために,高次隣接をプリコンパイルし,3つの分類タスクでLLMを微調整し,フィルタ性能を向上させる。
2つの広く使われている知識グラフデータセットの実験により、攻撃はブラックボックスのベースラインよりも優れており、推論による説明を提供し、ホワイトボックスの手法と比較して競合する性能を示している。
包括的アブレーションとケーススタディは、その説明を生成する能力をさらに検証する。
関連論文リスト
- The Surprising Effectiveness of Membership Inference with Simple N-Gram Coverage [71.8564105095189]
対象モデルからのテキスト出力のみに依存する会員推論攻撃であるN-Gram Coverage Attackを導入する。
我々はまず、N-Gram Coverage Attackが他のブラックボックスメソッドより優れている、様々な既存のベンチマークを実証する。
GPT-4oのような最近のモデルでは、メンバーシップ推論に対するロバスト性が向上していることがわかった。
論文 参考訳(メタデータ) (2025-08-13T08:35:16Z) - TrustGLM: Evaluating the Robustness of GraphLLMs Against Prompt, Text, and Structure Attacks [3.3238054848751535]
テキスト,グラフ構造,即時操作の3次元にわたる敵攻撃に対するGraphLLMの脆弱性を評価する総合的研究であるTrustGLMを紹介する。
この結果から,GraphLLMsは,ノードのテキスト属性に含まれる意味論的に類似した単語を置き換えるだけで,テキスト攻撃に非常に敏感であることが判明した。
また、標準グラフ構造攻撃手法はモデル性能を著しく低下させるが、プロンプトテンプレートで候補ラベルセットをランダムにシャッフルすると性能が大幅に低下する。
論文 参考訳(メタデータ) (2025-06-13T14:48:01Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - Attack-in-the-Chain: Bootstrapping Large Language Models for Attacks Against Black-box Neural Ranking Models [111.58315434849047]
本稿では,アタック・イン・ザ・チェーン(Attack-in-the-Chain)という新しいランキングアタックフレームワークを紹介する。
大型言語モデル(LLMs)とニューラルランキングモデル(NRMs)の相互作用をチェーン・オブ・ソートに基づいて追跡する。
2つのWeb検索ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-25T04:03:09Z) - Target-driven Attack for Large Language Models [14.784132523066567]
クリーンテキストと攻撃テキストの条件付き確率のKL差を最大化するターゲット駆動型ブラックボックス攻撃法を提案する。
複数の大規模言語モデルとデータセットの実験結果から,攻撃手法の有効性が示された。
論文 参考訳(メタデータ) (2024-11-09T15:59:59Z) - AttacKG+:Boosting Attack Knowledge Graph Construction with Large Language Models [17.89951919370619]
大きな言語モデル(LLM)は幅広いタスクで大きな成功を収めています。
私たちのフレームワークは,リライト,識別子,要約という4つの連続的なモジュールで構成されています。
我々はサイバー攻撃を時間的に展開するイベントとして表現し、それぞれの時間的ステップは3つのレイヤの表現をカプセル化する。
論文 参考訳(メタデータ) (2024-05-08T01:41:25Z) - Goal-guided Generative Prompt Injection Attack on Large Language Models [6.175969971471705]
大規模言語モデル(LLM)は、大規模ユーザ指向自然言語タスクの強力な基盤を提供する。
多数のユーザは、ユーザインターフェースを通じて、逆テキストや命令を容易に注入することができる。
これらの戦略が攻撃の成功率とどのように関係し、モデルセキュリティを効果的に改善するかは不明である。
論文 参考訳(メタデータ) (2024-04-06T06:17:10Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Universal and Transferable Adversarial Attacks on Aligned Language
Models [118.41733208825278]
本稿では,アライメント言語モデルに反抗的な振る舞いを生じさせる,シンプルで効果的な攻撃手法を提案する。
驚いたことに、我々のアプローチによって生じる敵のプロンプトは、かなり伝達可能である。
論文 参考訳(メタデータ) (2023-07-27T17:49:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。