論文の概要: Adversarial Robustness of Representation Learning for Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2210.00122v1
- Date: Fri, 30 Sep 2022 22:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:03:21.551064
- Title: Adversarial Robustness of Representation Learning for Knowledge Graphs
- Title(参考訳): 知識グラフにおける表現学習の逆ロバスト性
- Authors: Peru Bhardwaj
- Abstract要約: この論文は、最先端の知識グラフ埋め込み(KGE)モデルはデータ中毒攻撃に対して脆弱であると主張している。
2つの新しいデータ中毒攻撃が提案され、トレーニング時に入力削除や追加を行い、推論時に学習したモデルの性能を逆転させる。
評価の結果、単純な攻撃は計算コストの高い攻撃と競合するか、上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 7.5765554531658665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Knowledge graphs represent factual knowledge about the world as relationships
between concepts and are critical for intelligent decision making in enterprise
applications. New knowledge is inferred from the existing facts in the
knowledge graphs by encoding the concepts and relations into low-dimensional
feature vector representations. The most effective representations for this
task, called Knowledge Graph Embeddings (KGE), are learned through neural
network architectures. Due to their impressive predictive performance, they are
increasingly used in high-impact domains like healthcare, finance and
education. However, are the black-box KGE models adversarially robust for use
in domains with high stakes? This thesis argues that state-of-the-art KGE
models are vulnerable to data poisoning attacks, that is, their predictive
performance can be degraded by systematically crafted perturbations to the
training knowledge graph. To support this argument, two novel data poisoning
attacks are proposed that craft input deletions or additions at training time
to subvert the learned model's performance at inference time. These adversarial
attacks target the task of predicting the missing facts in knowledge graphs
using KGE models, and the evaluation shows that the simpler attacks are
competitive with or outperform the computationally expensive ones. The thesis
contributions not only highlight and provide an opportunity to fix the security
vulnerabilities of KGE models, but also help to understand the black-box
predictive behaviour of KGE models.
- Abstract(参考訳): 知識グラフは、概念間の関係として世界に関する事実的知識を表し、エンタープライズアプリケーションにおけるインテリジェントな意思決定に不可欠である。
新しい知識は、概念と関係を低次元の特徴ベクトル表現にエンコードすることで、知識グラフの既存の事実から推測される。
このタスクの最も効果的な表現は、KGE(Knowledge Graph Embeddings)と呼ばれ、ニューラルネットワークアーキテクチャを通じて学習される。
優れた予測性能のため、医療、金融、教育といった高影響領域での利用が増えている。
しかし、ブラックボックスのKGEモデルは高利得の領域で使用するために逆向きに堅牢か?
この論文は、最先端のKGEモデルはデータ中毒攻撃に弱い、すなわち、トレーニング知識グラフに対する体系的な摂動によって予測性能を低下させることができると主張している。
この議論を支持するために, 学習モデルの推論時の性能を低下させるために, 学習時の入力削除や追加を巧みに行う, 新たなデータ中毒攻撃が2つ提案されている。
これらの敵対的攻撃はkgeモデルを用いて知識グラフの欠落した事実を予測するタスクをターゲットとし、より単純な攻撃が計算コストの高い攻撃と競合しているか、または比較可能であることを示す。
この論文は、KGEモデルのセキュリティ脆弱性をハイライトし、修正する機会を提供するだけでなく、KGEモデルのブラックボックス予測動作を理解するのに役立つ。
関連論文リスト
- Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - CausE: Towards Causal Knowledge Graph Embedding [13.016173217017597]
知識グラフ埋め込み(KGE)は、知識グラフ(KG)の連続ベクトル空間への実体と関係を表現することに焦点を当てている。
我々はKGEの新しいパラダイムを因果関係と非絡み込みの文脈で構築する。
本稿では,CausE(Causality Enhanced Knowledge Graph Embedding)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-21T14:25:39Z) - GIF: A General Graph Unlearning Strategy via Influence Function [63.52038638220563]
Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
論文 参考訳(メタデータ) (2023-04-06T03:02:54Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Improving Knowledge Graph Embedding via Iterative Self-Semantic
Knowledge Distillation [21.635448800039118]
知識グラフ埋め込み (KGE) は, 連続ベクトル空間への実体と関係の投影によるリンク予測のために, 集中的に研究されている。
現在の一般的な高次元KGE法は、膨大な計算とメモリコストを必要とするが、非常にわずかな性能向上が得られる。
低次元空間におけるKGEモデル表現性を改善するための自己意味的知識蒸留戦略を提案する。
論文 参考訳(メタデータ) (2022-06-07T01:49:22Z) - Poisoning Knowledge Graph Embeddings via Relation Inference Patterns [8.793721044482613]
本稿では,知識グラフのリンク予測作業における知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃の問題点について検討する。
KGEモデルに悪影響を与えるため,知識グラフの対称性,逆転,構成といった関係パターンから得られた帰納的能力を活用することを提案する。
論文 参考訳(メタデータ) (2021-11-11T17:57:37Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。