論文の概要: Untargeted Adversarial Attack on Knowledge Graph Embeddings
- arxiv url: http://arxiv.org/abs/2405.10970v1
- Date: Wed, 8 May 2024 18:08:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 03:08:05.128732
- Title: Untargeted Adversarial Attack on Knowledge Graph Embeddings
- Title(参考訳): 知識グラフ埋め込みにおける未知の敵攻撃
- Authors: Tianzhe Zhao, Jiaoyan Chen, Yanchi Ru, Qika Lin, Yuxia Geng, Jun Liu,
- Abstract要約: 知識グラフ埋め込み(KGE)手法は、様々な知識グラフ(KG)下流タスクを扱うことに成功している。
近年の研究では、KGE手法の脆弱性を調査するための敵攻撃が提案されているが、攻撃者はKGE方式で標的指向である。
本研究では,KGE手法のグローバルな性能を,未知のテストトリプルの集合上で低減することを目的として,標的外攻撃を探索する。
- 参考スコア(独自算出の注目度): 18.715565468700227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph embedding (KGE) methods have achieved great success in handling various knowledge graph (KG) downstream tasks. However, KGE methods may learn biased representations on low-quality KGs that are prevalent in the real world. Some recent studies propose adversarial attacks to investigate the vulnerabilities of KGE methods, but their attackers are target-oriented with the KGE method and the target triples to predict are given in advance, which lacks practicability. In this work, we explore untargeted attacks with the aim of reducing the global performances of KGE methods over a set of unknown test triples and conducting systematic analyses on KGE robustness. Considering logic rules can effectively summarize the global structure of a KG, we develop rule-based attack strategies to enhance the attack efficiency. In particular,we consider adversarial deletion which learns rules, applying the rules to score triple importance and delete important triples, and adversarial addition which corrupts the learned rules and applies them for negative triples as perturbations. Extensive experiments on two datasets over three representative classes of KGE methods demonstrate the effectiveness of our proposed untargeted attacks in diminishing the link prediction results. And we also find that different KGE methods exhibit different robustness to untargeted attacks. For example, the robustness of methods engaged with graph neural networks and logic rules depends on the density of the graph. But rule-based methods like NCRL are easily affected by adversarial addition attacks to capture negative rules
- Abstract(参考訳): 知識グラフ埋め込み(KGE)手法は、様々な知識グラフ(KG)下流タスクを扱うことに成功している。
しかし、KGE法は現実世界でよく見られる低品質なKGの偏り表現を学習することができる。
近年の研究では、KGE手法の脆弱性を調査するための敵攻撃が提案されているが、攻撃者はKGE法で目標指向であり、予測対象のトリプルは事前に与えられており、実用性に欠ける。
本研究では,KGE手法のグローバルな性能を,未知のテストトリプルの集合上で低減し,KGEのロバスト性に関する系統的解析を行うことを目的として,標的外攻撃を探索する。
KGのグローバル構造を効果的に要約できる論理則を考えると、我々は攻撃効率を高めるためのルールベースの攻撃戦略を開発する。
特に、ルールを学習し、ルールを適用して三重の重要度を取得し、重要な三重の削除を行い、学習ルールを破損させ、負の三重の摂動に応用する逆の付加について考察する。
KGE法の3つの代表的なクラスにまたがる2つのデータセットに対する大規模な実験により、リンク予測結果を減少させる未標的攻撃の有効性が示された。
また、異なるKGE手法が標的外攻撃に対して異なる堅牢性を示すことも判明した。
例えば、グラフニューラルネットワークや論理規則に係わる手法の堅牢性は、グラフの密度に依存する。
しかし、NCRLのようなルールベースの手法は、負のルールを捉えるために敵の追加攻撃によって容易に影響を受ける
関連論文リスト
- Performance Evaluation of Knowledge Graph Embedding Approaches under Non-adversarial Attacks [1.6986898305640263]
我々は、5つの最先端知識グラフ埋め込み(KGE)アルゴリズムの性能に対する非敵攻撃の影響を評価する。
ラベル摂動は、KGEの性能に強い影響を与え、その後、中程度で低効果のグラフを持つパラメータ摂動が続く。
論文 参考訳(メタデータ) (2024-07-09T13:42:14Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Self-Guided Robust Graph Structure Refinement [37.235898707554284]
本稿では,GNNを敵攻撃から守るための自己誘導グラフ構造改善(GSR)フレームワークを提案する。
本稿では,非標的攻撃,標的攻撃,機能攻撃,eコマース詐欺,ノイズの多いノードラベルなど,様々なシナリオにおけるSG-GSRの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T05:00:07Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - On the Adversarial Robustness of Graph Contrastive Learning Methods [9.675856264585278]
本稿では,グラフコントラスト学習(GCL)モデルのロバスト性を評価するために,包括的評価ロバストネスプロトコルを提案する。
我々はこれらのモデルを,グラフ構造をターゲットとした適応的敵攻撃,特に回避シナリオに適用する。
本研究は,GCL手法の堅牢性に関する知見を提供することを目標とし,今後の研究方向の道を開くことを期待する。
論文 参考訳(メタデータ) (2023-11-29T17:59:18Z) - Adversarial Robustness of Representation Learning for Knowledge Graphs [7.5765554531658665]
この論文は、最先端の知識グラフ埋め込み(KGE)モデルはデータ中毒攻撃に対して脆弱であると主張している。
2つの新しいデータ中毒攻撃が提案され、トレーニング時に入力削除や追加を行い、推論時に学習したモデルの性能を逆転させる。
評価の結果、単純な攻撃は計算コストの高い攻撃と競合するか、上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-30T22:41:22Z) - On Trace of PGD-Like Adversarial Attacks [77.75152218980605]
敵対的攻撃は、ディープラーニングアプリケーションに対する安全性とセキュリティ上の懸念を引き起こす。
モデルの勾配一貫性を反映した適応応答特性(ARC)特性を構築する。
私たちの方法は直感的で、軽量で、非侵襲的で、データ不要です。
論文 参考訳(メタデータ) (2022-05-19T14:26:50Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。