論文の概要: On provable privacy vulnerabilities of graph representations
- arxiv url: http://arxiv.org/abs/2402.04033v3
- Date: Wed, 23 Oct 2024 14:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:34.864675
- Title: On provable privacy vulnerabilities of graph representations
- Title(参考訳): グラフ表現の証明可能なプライバシー脆弱性について
- Authors: Ruofan Wu, Guanhua Fang, Qiying Pan, Mingyang Zhang, Tengfei Liu, Weiqiang Wang,
- Abstract要約: グラフ表現学習(GRL)は複雑なネットワーク構造から洞察を抽出するために重要である。
また、これらの表現にプライバシー上の脆弱性があるため、セキュリティ上の懸念も高まる。
本稿では,エッジ再構成攻撃により,高感度なトポロジ情報を推定できるグラフニューラルモデルの構造的脆弱性について検討する。
- 参考スコア(独自算出の注目度): 34.45433384694758
- License:
- Abstract: Graph representation learning (GRL) is critical for extracting insights from complex network structures, but it also raises security concerns due to potential privacy vulnerabilities in these representations. This paper investigates the structural vulnerabilities in graph neural models where sensitive topological information can be inferred through edge reconstruction attacks. Our research primarily addresses the theoretical underpinnings of similarity-based edge reconstruction attacks (SERA), furnishing a non-asymptotic analysis of their reconstruction capacities. Moreover, we present empirical corroboration indicating that such attacks can perfectly reconstruct sparse graphs as graph size increases. Conversely, we establish that sparsity is a critical factor for SERA's effectiveness, as demonstrated through analysis and experiments on (dense) stochastic block models. Finally, we explore the resilience of private graph representations produced via noisy aggregation (NAG) mechanism against SERA. Through theoretical analysis and empirical assessments, we affirm the mitigation of SERA using NAG . In parallel, we also empirically delineate instances wherein SERA demonstrates both efficacy and deficiency in its capacity to function as an instrument for elucidating the trade-off between privacy and utility.
- Abstract(参考訳): グラフ表現学習(GRL)は複雑なネットワーク構造から洞察を抽出するために重要であるが、これらの表現の潜在的なプライバシー上の脆弱性によりセキュリティ上の懸念も生じている。
本稿では,エッジ再構成攻撃により,高感度なトポロジ情報を推定できるグラフニューラルモデルの構造的脆弱性について検討する。
本研究は, 相似性に基づくエッジ再構築攻撃(SERA)の理論的基盤を主に解決し, 再建能力の非漸近的解析を行う。
さらに,グラフのサイズが大きくなるにつれて,このような攻撃がスパースグラフを完全に再構築できることを実証的に示す。
逆に、(密度)確率ブロックモデルの解析や実験を通じて実証されたように、スパーシリティがSERAの有効性にとって重要な要素であることを示す。
最後に,SERAに対するノイズアグリゲーション(NAG)機構を用いて生成したプライベートグラフ表現のレジリエンスについて検討する。
理論的解析と経験的評価により,NAGを用いたSERAの緩和が確認された。
同時に、SERAは、プライバシとユーティリティのトレードオフを解明する手段として機能する能力の有効性と欠如の両方を実証する事例を実証的に記述する。
関連論文リスト
- Graph Structure Refinement with Energy-based Contrastive Learning [56.957793274727514]
グラフの構造と表現を学習するための生成訓練と識別訓練のジョイントに基づく教師なし手法を提案する。
本稿では,ECL-GSR(Energy-based Contrastive Learning)によるグラフ構造再構成(GSR)フレームワークを提案する。
ECL-GSRは、主要なベースラインに対するサンプルやメモリの少ない高速なトレーニングを実現し、下流タスクの単純さと効率性を強調している。
論文 参考訳(メタデータ) (2024-12-20T04:05:09Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Masked Spatial-Spectral Autoencoders Are Excellent Hyperspectral
Defenders [15.839321488352535]
本研究では,HSI解析システムのロバスト性を高めるマスク付き空間スペクトルオートエンコーダ(MSSA)を提案する。
限定ラベル付きサンプルの防衛伝達性の向上と課題に対処するため,MSSAはプリテキストタスクとしてスペクトル再構成を採用している。
3つのベンチマークの総合的な実験は、最先端のハイパースペクトル分類法と比較してMSSAの有効性を検証する。
論文 参考訳(メタデータ) (2022-07-16T01:33:13Z) - Understanding Structural Vulnerability in Graph Convolutional Networks [27.602802961213236]
グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-13T15:07:44Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。