論文の概要: Private Graph Extraction via Feature Explanations
- arxiv url: http://arxiv.org/abs/2206.14724v1
- Date: Wed, 29 Jun 2022 15:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 22:13:22.119454
- Title: Private Graph Extraction via Feature Explanations
- Title(参考訳): 特徴説明によるプライベートグラフ抽出
- Authors: Iyiola E. Olatunji, Mandeep Rathee, Thorben Funke, Megha Khosla
- Abstract要約: グラフ再構成攻撃によるグラフ機械学習におけるプライバシと解釈可能性の相互作用について検討する。
ポストホックな特徴説明の付加的な知識がこれらの攻撃の成功率を大幅に向上させることを示す。
本稿では,攻撃成功率を大幅に低下させる説明を解放するためのランダム化応答機構に基づく防御手法を提案する。
- 参考スコア(独自算出の注目度): 1.4031298577349829
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy and interpretability are two of the important ingredients for
achieving trustworthy machine learning. We study the interplay of these two
aspects in graph machine learning through graph reconstruction attacks. The
goal of the adversary here is to reconstruct the graph structure of the
training data given access to model explanations. Based on the different kinds
of auxiliary information available to the adversary, we propose several graph
reconstruction attacks. We show that additional knowledge of post-hoc feature
explanations substantially increases the success rate of these attacks.
Further, we investigate in detail the differences between attack performance
with respect to three different classes of explanation methods for graph neural
networks: gradient-based, perturbation-based, and surrogate model-based
methods. While gradient-based explanations reveal the most in terms of the
graph structure, we find that these explanations do not always score high in
utility. For the other two classes of explanations, privacy leakage increases
with an increase in explanation utility. Finally, we propose a defense based on
a randomized response mechanism for releasing the explanations which
substantially reduces the attack success rate. Our anonymized code is
available.
- Abstract(参考訳): プライバシと解釈性は、信頼できる機械学習を実現する上で重要な要素の2つだ。
グラフ再構成攻撃によるグラフ機械学習におけるこれら2つの側面の相互作用について検討する。
ここでの敵の目標は、モデル説明にアクセス可能なトレーニングデータのグラフ構造を再構築することである。
敵が利用可能な様々な補助情報に基づいて,いくつかのグラフ再構成攻撃を提案する。
ポストホックな特徴説明のさらなる知識がこれらの攻撃の成功率を大幅に向上させることを示す。
さらに,グラフニューラルネットワークの3種類の説明手法(勾配ベース,摂動ベース,代理モデルベース)に対して,攻撃性能の違いを詳細に検討した。
グラデーションに基づく説明はグラフ構造の観点からは最も多いが、これらの説明が必ずしも有用性が高いとは限らない。
他の2つの説明クラスでは、説明ユーティリティの増加とともにプライバシー漏洩が増加する。
最後に,攻撃成功率を大幅に低下させる説明を解放するランダム化応答機構に基づく防御手法を提案する。
匿名コードも利用可能です。
関連論文リスト
- CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Reinforced Causal Explainer for Graph Neural Networks [112.57265240212001]
グラフニューラルネットワーク(GNN)の探索には説明可能性が不可欠である
我々は強化学習エージェントReinforced Causal Explainer (RC-Explainer)を提案する。
RC-Explainerは忠実で簡潔な説明を生成し、グラフを見えなくするより優れたパワーを持つ。
論文 参考訳(メタデータ) (2022-04-23T09:13:25Z) - Exploring High-Order Structure for Robust Graph Structure Learning [33.62223306095631]
グラフニューラルネットワーク(GNN)は、敵の攻撃に対して脆弱である。すなわち、知覚不能な構造摂動は、GNNを騙して誤った予測をすることができる。
本稿では,特徴の滑らかさの観点から,グラフに対する逆攻撃を解析する。
本稿では,高次構造情報をグラフ構造学習に組み込む新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-22T07:03:08Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Structural Information Preserving for Graph-to-Text Generation [59.00642847499138]
グラフ・トゥ・テキスト生成の課題は、入力グラフの意味を保存した文を生成することである。
入力情報を保存するためのモデルとして,より豊かなトレーニング信号を活用することで,この問題に取り組むことを提案する。
グラフからテキストへの生成のための2つのベンチマークに関する実験は、最先端のベースラインに対するアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-12T20:09:01Z) - Adversarial Privacy Preserving Graph Embedding against Inference Attack [9.90348608491218]
グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシを考慮しない。
本稿では,学習ノード表現からユーザのプライベート情報を削除するためのアンタングルとパージ機構を統合したグラフ対向トレーニングフレームワークであるAdrial Privacy Graph Embedding (APGE)を提案する。
論文 参考訳(メタデータ) (2020-08-30T00:06:49Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks on Graph Neural Networks via Meta Learning [4.139895092509202]
離散グラフ構造を摂動するノード分類のためのグラフニューラルネットワークのトレーニング時間攻撃について検討する。
私たちのコア原則は、メタグラディエントを使用して、トレーニング時攻撃の根底にある二段階の問題を解決することです。
論文 参考訳(メタデータ) (2019-02-22T09:20:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。