論文の概要: Performance Evaluation of Knowledge Graph Embedding Approaches under Non-adversarial Attacks
- arxiv url: http://arxiv.org/abs/2407.06855v1
- Date: Tue, 9 Jul 2024 13:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 17:57:30.805019
- Title: Performance Evaluation of Knowledge Graph Embedding Approaches under Non-adversarial Attacks
- Title(参考訳): 非敵攻撃による知識グラフ埋め込み手法の性能評価
- Authors: Sourabh Kapoor, Arnab Sharma, Michael Röder, Caglar Demir, Axel-Cyrille Ngonga Ngomo,
- Abstract要約: 我々は、5つの最先端知識グラフ埋め込み(KGE)アルゴリズムの性能に対する非敵攻撃の影響を評価する。
ラベル摂動は、KGEの性能に強い影響を与え、その後、中程度で低効果のグラフを持つパラメータ摂動が続く。
- 参考スコア(独自算出の注目度): 1.6986898305640263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graph Embedding (KGE) transforms a discrete Knowledge Graph (KG) into a continuous vector space facilitating its use in various AI-driven applications like Semantic Search, Question Answering, or Recommenders. While KGE approaches are effective in these applications, most existing approaches assume that all information in the given KG is correct. This enables attackers to influence the output of these approaches, e.g., by perturbing the input. Consequently, the robustness of such KGE approaches has to be addressed. Recent work focused on adversarial attacks. However, non-adversarial attacks on all attack surfaces of these approaches have not been thoroughly examined. We close this gap by evaluating the impact of non-adversarial attacks on the performance of 5 state-of-the-art KGE algorithms on 5 datasets with respect to attacks on 3 attack surfaces-graph, parameter, and label perturbation. Our evaluation results suggest that label perturbation has a strong effect on the KGE performance, followed by parameter perturbation with a moderate and graph with a low effect.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)は、個別の知識グラフ(KG)を連続ベクトル空間に変換することで、セマンティック検索、質問回答、リコメンダなど、AI駆動のさまざまなアプリケーションでの使用を容易にする。
KGEアプローチはこれらのアプリケーションで有効であるが、既存のアプローチの多くは、与えられたKGの全ての情報が正しいと仮定している。
これにより、攻撃者は入力を摂動することでこれらのアプローチ、例えば、出力に影響を与えることができる。
したがって、そのようなKGEアプローチの堅牢性に対処する必要がある。
最近の研究は敵の攻撃に焦点を当てている。
しかし、これらのアプローチの全ての攻撃面に対する非敵攻撃については、十分には検討されていない。
我々は,3つの攻撃面(グラフ,パラメータ,ラベル摂動)に対する攻撃に対して,最先端の5つのKGEアルゴリズムが5つのデータセット上での性能に与える影響を評価することにより,このギャップを埋める。
評価結果から, ラベル摂動はKGEの性能に強い影響を与えることが示唆された。
関連論文リスト
- Untargeted Adversarial Attack on Knowledge Graph Embeddings [18.715565468700227]
知識グラフ埋め込み(KGE)手法は、様々な知識グラフ(KG)下流タスクを扱うことに成功している。
近年の研究では、KGE手法の脆弱性を調査するための敵攻撃が提案されているが、攻撃者はKGE方式で標的指向である。
本研究では,KGE手法のグローバルな性能を,未知のテストトリプルの集合上で低減することを目的として,標的外攻撃を探索する。
論文 参考訳(メタデータ) (2024-05-08T18:08:11Z) - Revisiting Edge Perturbation for Graph Neural Network in Graph Data
Augmentation and Attack [58.440711902319855]
エッジ摂動はグラフ構造を変更する方法である。
グラフニューラルネットワーク(GNN)の性能への影響に基づき、2つの静脈に分類できる。
統一的な定式化を提案し、エッジ摂動法の2つのカテゴリ間の明確な境界を確立する。
論文 参考訳(メタデータ) (2024-03-10T15:50:04Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。