論文の概要: On provable privacy vulnerabilities of graph representations
- arxiv url: http://arxiv.org/abs/2402.04033v3
- Date: Wed, 23 Oct 2024 14:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:34.864675
- Title: On provable privacy vulnerabilities of graph representations
- Title(参考訳): グラフ表現の証明可能なプライバシー脆弱性について
- Authors: Ruofan Wu, Guanhua Fang, Qiying Pan, Mingyang Zhang, Tengfei Liu, Weiqiang Wang,
- Abstract要約: グラフ表現学習(GRL)は複雑なネットワーク構造から洞察を抽出するために重要である。
また、これらの表現にプライバシー上の脆弱性があるため、セキュリティ上の懸念も高まる。
本稿では,エッジ再構成攻撃により,高感度なトポロジ情報を推定できるグラフニューラルモデルの構造的脆弱性について検討する。
- 参考スコア(独自算出の注目度): 34.45433384694758
- License:
- Abstract: Graph representation learning (GRL) is critical for extracting insights from complex network structures, but it also raises security concerns due to potential privacy vulnerabilities in these representations. This paper investigates the structural vulnerabilities in graph neural models where sensitive topological information can be inferred through edge reconstruction attacks. Our research primarily addresses the theoretical underpinnings of similarity-based edge reconstruction attacks (SERA), furnishing a non-asymptotic analysis of their reconstruction capacities. Moreover, we present empirical corroboration indicating that such attacks can perfectly reconstruct sparse graphs as graph size increases. Conversely, we establish that sparsity is a critical factor for SERA's effectiveness, as demonstrated through analysis and experiments on (dense) stochastic block models. Finally, we explore the resilience of private graph representations produced via noisy aggregation (NAG) mechanism against SERA. Through theoretical analysis and empirical assessments, we affirm the mitigation of SERA using NAG . In parallel, we also empirically delineate instances wherein SERA demonstrates both efficacy and deficiency in its capacity to function as an instrument for elucidating the trade-off between privacy and utility.
- Abstract(参考訳): グラフ表現学習(GRL)は複雑なネットワーク構造から洞察を抽出するために重要であるが、これらの表現の潜在的なプライバシー上の脆弱性によりセキュリティ上の懸念も生じている。
本稿では,エッジ再構成攻撃により,高感度なトポロジ情報を推定できるグラフニューラルモデルの構造的脆弱性について検討する。
本研究は, 相似性に基づくエッジ再構築攻撃(SERA)の理論的基盤を主に解決し, 再建能力の非漸近的解析を行う。
さらに,グラフのサイズが大きくなるにつれて,このような攻撃がスパースグラフを完全に再構築できることを実証的に示す。
逆に、(密度)確率ブロックモデルの解析や実験を通じて実証されたように、スパーシリティがSERAの有効性にとって重要な要素であることを示す。
最後に,SERAに対するノイズアグリゲーション(NAG)機構を用いて生成したプライベートグラフ表現のレジリエンスについて検討する。
理論的解析と経験的評価により,NAGを用いたSERAの緩和が確認された。
同時に、SERAは、プライバシとユーティリティのトレードオフを解明する手段として機能する能力の有効性と欠如の両方を実証する事例を実証的に記述する。
関連論文リスト
- When Witnesses Defend: A Witness Graph Topological Layer for Adversarial Graph Learning [19.566775406771757]
逆グラフ学習を計算トポロジー、すなわちグラフの永続的ホモロジー表現から新たなツールで橋渡しする。
グラフ上の逆解析において、グラフ全体の位相情報の損失を最小限に抑えながら、グラフの健全な形状特性にのみ焦点をあてることのできる証人複体の概念を導入する。
証人機構を組み込んだWitness Graph Topological Layer (WGTL) を設計し、局所的およびグローバルなトポロジカルグラフの特徴表現を体系的に統合し、その影響を頑健な正規化されたトポロジ的損失によって自動的に制御する。
論文 参考訳(メタデータ) (2024-09-21T14:53:32Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Masked Spatial-Spectral Autoencoders Are Excellent Hyperspectral
Defenders [15.839321488352535]
本研究では,HSI解析システムのロバスト性を高めるマスク付き空間スペクトルオートエンコーダ(MSSA)を提案する。
限定ラベル付きサンプルの防衛伝達性の向上と課題に対処するため,MSSAはプリテキストタスクとしてスペクトル再構成を採用している。
3つのベンチマークの総合的な実験は、最先端のハイパースペクトル分類法と比較してMSSAの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-16T01:33:13Z) - Understanding Structural Vulnerability in Graph Convolutional Networks [27.602802961213236]
グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-13T15:07:44Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。