論文の概要: Adversarial Robustness of Representation Learning for Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2210.00122v1
- Date: Fri, 30 Sep 2022 22:41:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 13:03:21.551064
- Title: Adversarial Robustness of Representation Learning for Knowledge Graphs
- Title(参考訳): 知識グラフにおける表現学習の逆ロバスト性
- Authors: Peru Bhardwaj
- Abstract要約: この論文は、最先端の知識グラフ埋め込み(KGE)モデルはデータ中毒攻撃に対して脆弱であると主張している。
2つの新しいデータ中毒攻撃が提案され、トレーニング時に入力削除や追加を行い、推論時に学習したモデルの性能を逆転させる。
評価の結果、単純な攻撃は計算コストの高い攻撃と競合するか、上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 7.5765554531658665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Knowledge graphs represent factual knowledge about the world as relationships
between concepts and are critical for intelligent decision making in enterprise
applications. New knowledge is inferred from the existing facts in the
knowledge graphs by encoding the concepts and relations into low-dimensional
feature vector representations. The most effective representations for this
task, called Knowledge Graph Embeddings (KGE), are learned through neural
network architectures. Due to their impressive predictive performance, they are
increasingly used in high-impact domains like healthcare, finance and
education. However, are the black-box KGE models adversarially robust for use
in domains with high stakes? This thesis argues that state-of-the-art KGE
models are vulnerable to data poisoning attacks, that is, their predictive
performance can be degraded by systematically crafted perturbations to the
training knowledge graph. To support this argument, two novel data poisoning
attacks are proposed that craft input deletions or additions at training time
to subvert the learned model's performance at inference time. These adversarial
attacks target the task of predicting the missing facts in knowledge graphs
using KGE models, and the evaluation shows that the simpler attacks are
competitive with or outperform the computationally expensive ones. The thesis
contributions not only highlight and provide an opportunity to fix the security
vulnerabilities of KGE models, but also help to understand the black-box
predictive behaviour of KGE models.
- Abstract(参考訳): 知識グラフは、概念間の関係として世界に関する事実的知識を表し、エンタープライズアプリケーションにおけるインテリジェントな意思決定に不可欠である。
新しい知識は、概念と関係を低次元の特徴ベクトル表現にエンコードすることで、知識グラフの既存の事実から推測される。
このタスクの最も効果的な表現は、KGE(Knowledge Graph Embeddings)と呼ばれ、ニューラルネットワークアーキテクチャを通じて学習される。
優れた予測性能のため、医療、金融、教育といった高影響領域での利用が増えている。
しかし、ブラックボックスのKGEモデルは高利得の領域で使用するために逆向きに堅牢か?
この論文は、最先端のKGEモデルはデータ中毒攻撃に弱い、すなわち、トレーニング知識グラフに対する体系的な摂動によって予測性能を低下させることができると主張している。
この議論を支持するために, 学習モデルの推論時の性能を低下させるために, 学習時の入力削除や追加を巧みに行う, 新たなデータ中毒攻撃が2つ提案されている。
これらの敵対的攻撃はkgeモデルを用いて知識グラフの欠落した事実を予測するタスクをターゲットとし、より単純な攻撃が計算コストの高い攻撃と競合しているか、または比較可能であることを示す。
この論文は、KGEモデルのセキュリティ脆弱性をハイライトし、修正する機会を提供するだけでなく、KGEモデルのブラックボックス予測動作を理解するのに役立つ。
関連論文リスト
- Resilience in Knowledge Graph Embeddings [1.90894751866253]
我々は、一般化、性能の整合性、分散適応、堅牢性といったいくつかの要因を含む、レジリエンスを一元的に定義する。
調査の結果,既存の研究のほとんどはレジリエンス,すなわち堅牢性に重点を置いていることがわかった。
論文 参考訳(メタデータ) (2024-10-28T16:04:22Z) - KGV: Integrating Large Language Models with Knowledge Graphs for Cyber Threat Intelligence Credibility Assessment [38.312774244521]
本稿では,CTI(Cyber Threat Intelligence)品質評価フレームワークの知識グラフに基づく検証手法を提案する。
提案手法では,検証対象のOSCTIキークレームを自動的に抽出するLarge Language Models (LLM)を導入している。
研究分野のギャップを埋めるために、異種情報源からの脅威情報評価のための最初のデータセットを作成し、公開しました。
論文 参考訳(メタデータ) (2024-08-15T11:32:46Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - CausE: Towards Causal Knowledge Graph Embedding [13.016173217017597]
知識グラフ埋め込み(KGE)は、知識グラフ(KG)の連続ベクトル空間への実体と関係を表現することに焦点を当てている。
我々はKGEの新しいパラダイムを因果関係と非絡み込みの文脈で構築する。
本稿では,CausE(Causality Enhanced Knowledge Graph Embedding)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-21T14:25:39Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Poisoning Knowledge Graph Embeddings via Relation Inference Patterns [8.793721044482613]
本稿では,知識グラフのリンク予測作業における知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃の問題点について検討する。
KGEモデルに悪影響を与えるため,知識グラフの対称性,逆転,構成といった関係パターンから得られた帰納的能力を活用することを提案する。
論文 参考訳(メタデータ) (2021-11-11T17:57:37Z) - Adversarial Attacks on Knowledge Graph Embeddings via Instance
Attribution Methods [8.793721044482613]
リンク予測のための知識グラフ埋め込み(KGE)モデルに対するデータ中毒攻撃について検討する。
これらの攻撃は、テスト時にモデル失敗を引き起こすために、トレーニング時に敵の追加や削除を行う。
本稿では,2つの実体のうちの1つを3つに置き換えて,逆加算を生成する手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T19:38:48Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。