論文の概要: A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy
- arxiv url: http://arxiv.org/abs/2306.08604v1
- Date: Wed, 14 Jun 2023 16:11:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-06-16 18:20:12.570901
- Title: A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy
- Title(参考訳): ロバスト性とメンバシッププライバシのためのグラフ情報ボトルネックの統一フレームワーク
- Authors: Enyan Dai, Limeng Cui, Zhengyang Wang, Xianfeng Tang, Yinghan Wang,
Monica Cheng, Bing Yin, Suhang Wang
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
GNNは、GNNモデルを騙して望ましい予測をする敵攻撃に対して脆弱である。
本研究では、ロバストかつメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
- 参考スコア(独自算出の注目度): 43.11374582152925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved great success in modeling
graph-structured data. However, recent works show that GNNs are vulnerable to
adversarial attacks which can fool the GNN model to make desired predictions of
the attacker. In addition, training data of GNNs can be leaked under membership
inference attacks. This largely hinders the adoption of GNNs in high-stake
domains such as e-commerce, finance and bioinformatics. Though investigations
have been made in conducting robust predictions and protecting membership
privacy, they generally fail to simultaneously consider the robustness and
membership privacy. Therefore, in this work, we study a novel problem of
developing robust and membership privacy-preserving GNNs. Our analysis shows
that Information Bottleneck (IB) can help filter out noisy information and
regularize the predictions on labeled samples, which can benefit robustness and
membership privacy. However, structural noises and lack of labels in node
classification challenge the deployment of IB on graph-structured data. To
mitigate these issues, we propose a novel graph information bottleneck
framework that can alleviate structural noises with neighbor bottleneck. Pseudo
labels are also incorporated in the optimization to minimize the gap between
the predictions on the labeled set and unlabeled set for membership privacy.
Extensive experiments on real-world datasets demonstrate that our method can
give robust predictions and simultaneously preserve membership privacy.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
しかし、最近の研究では、GNNは攻撃者の望ましい予測をするために、GNNモデルを騙す可能性のある敵攻撃に対して脆弱であることを示している。
さらに、GNNのトレーニングデータは、メンバシップ推論攻撃によって漏洩することができる。
これは主に、電子商取引、金融、バイオインフォマティクスといった高額な分野におけるGNNの採用を妨げる。
堅牢な予測とメンバーシッププライバシ保護に関する調査は行われてきたが、一般的には堅牢性とメンバーシッププライバシを同時に考慮できていない。
そこで本研究では、堅牢でメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
我々の分析によると、Information Bottleneck(IB)は、ノイズの多い情報をフィルタリングし、ラベル付きサンプルで予測を規則化するのに役立つ。
しかし、ノード分類における構造ノイズとラベルの欠如は、グラフ構造化データへのIBの展開に挑戦する。
これらの問題を緩和するために,隣接ボトルネックによる構造ノイズを軽減するグラフ情報ボトルネックフレームワークを提案する。
擬似ラベルは、ラベル付きセットの予測と、メンバーシッププライバシの未ラベルセットとのギャップを最小限に抑える最適化にも組み込まれている。
実世界のデータセットに関する広範囲な実験は、この手法が堅牢な予測を与え、同時にメンバーシッププライバシを保存できることを実証する。
関連論文リスト
- GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Uncertainty Quantification over Graph with Conformalized Graph Neural
Networks [52.20904874696597]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに基づく強力な機械学習予測モデルである。
GNNには厳密な不確実性見積が欠如しており、エラーのコストが重要な設定での信頼性の高いデプロイメントが制限されている。
本稿では,共形予測(CP)をグラフベースモデルに拡張した共形GNN(CF-GNN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T21:38:23Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - NetFense: Adversarial Defenses against Privacy Attacks on Neural
Networks for Graph Data [10.609715843964263]
本稿では,GNNに基づくプライバシ攻撃に対する敵防衛という新たな研究課題を提案する。
目的を達成するために,グラフ摂動に基づくNetFenseを提案する。
論文 参考訳(メタデータ) (2021-06-22T15:32:50Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。