論文の概要: Information Obfuscation of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2009.13504v5
- Date: Sun, 13 Jun 2021 05:35:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 20:40:44.695208
- Title: Information Obfuscation of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの情報難読化
- Authors: Peiyuan Liao, Han Zhao, Keyulu Xu, Tommi Jaakkola, Geoffrey Gordon,
Stefanie Jegelka, Ruslan Salakhutdinov
- Abstract要約: 本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
- 参考スコア(独自算出の注目度): 96.8421624921384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While the advent of Graph Neural Networks (GNNs) has greatly improved node
and graph representation learning in many applications, the neighborhood
aggregation scheme exposes additional vulnerabilities to adversaries seeking to
extract node-level information about sensitive attributes. In this paper, we
study the problem of protecting sensitive attributes by information obfuscation
when learning with graph structured data. We propose a framework to locally
filter out pre-determined sensitive attributes via adversarial training with
the total variation and the Wasserstein distance. Our method creates a strong
defense against inference attacks, while only suffering small loss in task
performance. Theoretically, we analyze the effectiveness of our framework
against a worst-case adversary, and characterize an inherent trade-off between
maximizing predictive accuracy and minimizing information leakage. Experiments
across multiple datasets from recommender systems, knowledge graphs and quantum
chemistry demonstrate that the proposed approach provides a robust defense
across various graph structures and tasks, while producing competitive GNN
encoders for downstream tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)の出現は、多くのアプリケーションにおいてノードとグラフ表現学習を大幅に改善しているが、近隣のアグリゲーションスキームは、機密属性に関するノードレベルの情報を抽出しようとする敵に、さらなる脆弱性を公開する。
本稿では,グラフ構造化データを用いた学習における情報難読化による機密属性保護の問題について検討する。
本研究では,事前決定された敏感な属性を,総変動量とワッサースタイン距離を用いた逆訓練により局所的にフィルタリングする枠組みを提案する。
本手法は,タスク性能の低下に悩まされる一方,推論攻撃に対して強い防御力を与える。
理論的には,最悪の場合に対するフレームワークの有効性を分析し,予測精度の最大化と情報漏洩の最小化とのトレードオフを特徴付ける。
推薦システム、知識グラフ、量子化学から複数のデータセットにまたがる実験は、提案手法が様々なグラフ構造やタスクに対して堅牢な防御を提供する一方で、下流タスクのための競争力のあるGNNエンコーダを生成することを示した。
関連論文リスト
- GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Uncertainty-Aware Robust Learning on Noisy Graphs [16.66112191539017]
本稿では,分散的ロバストな最適化を動機とした,新しい不確実性を考慮したグラフ学習フレームワークを提案する。
具体的には、グラフニューラルネットワークベースのエンコーダを使用して、ノードの特徴を埋め込んで、最適なノード埋め込みを見つけます。
このような不確実性を考慮した学習プロセスは、ノード表現の改善と、より堅牢なグラフ予測モデルをもたらす。
論文 参考訳(メタデータ) (2023-06-14T02:45:14Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Exploring High-Order Structure for Robust Graph Structure Learning [33.62223306095631]
グラフニューラルネットワーク(GNN)は、敵の攻撃に対して脆弱である。すなわち、知覚不能な構造摂動は、GNNを騙して誤った予測をすることができる。
本稿では,特徴の滑らかさの観点から,グラフに対する逆攻撃を解析する。
本稿では,高次構造情報をグラフ構造学習に組み込む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:03:08Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Unsupervised Adversarially-Robust Representation Learning on Graphs [26.48111798048012]
近年の研究では、グラフの深層学習が敵の攻撃に弱いことが示されている。
本稿では,相互情報を用いたグラフ上でのロバスト表現学習の根底にある問題に焦点をあてる。
論文 参考訳(メタデータ) (2020-12-04T09:29:16Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。