論文の概要: Convergent Privacy Framework with Contractive GNN Layers for Multi-hop Aggregations
- arxiv url: http://arxiv.org/abs/2506.22727v1
- Date: Sat, 28 Jun 2025 02:17:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.536333
- Title: Convergent Privacy Framework with Contractive GNN Layers for Multi-hop Aggregations
- Title(参考訳): マルチホップアグリゲーションのための契約型GNNレイヤを用いた収束プライバシーフレームワーク
- Authors: Yu Zheng, Chenang Li, Zhou Li, Qingsong Wang,
- Abstract要約: 微分プライバシー(DP)は、機密構造情報を保護するためにグラフニューラルネットワーク(GNN)に統合されている。
理論的保証に必要な契約性を保証するための,シンプルで効果的な契約グラフ層(CGL)を提案する。
当社のフレームワークであるCARIBOUは,トレーニングと推論の両方をサポートし,契約集約モジュール,プライバシ割り当てモジュール,プライバシ監査モジュールを備えている。
- 参考スコア(独自算出の注目度): 9.399260063250635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy (DP) has been integrated into graph neural networks (GNNs) to protect sensitive structural information, e.g., edges, nodes, and associated features across various applications. A common approach is to perturb the message-passing process, which forms the core of most GNN architectures. However, existing methods typically incur a privacy cost that grows linearly with the number of layers (Usenix Security'23), ultimately requiring excessive noise to maintain a reasonable privacy level. This limitation becomes particularly problematic when deep GNNs are necessary to capture complex and long-range interactions in graphs. In this paper, we theoretically establish that the privacy budget can converge with respect to the number of layers by applying privacy amplification techniques to the message-passing process, exploiting the contractive properties inherent to standard GNN operations. Motivated by this analysis, we propose a simple yet effective Contractive Graph Layer (CGL) that ensures the contractiveness required for theoretical guarantees while preserving model utility. Our framework, CARIBOU, supports both training and inference, equipped with a contractive aggregation module, a privacy allocation module, and a privacy auditing module. Experimental evaluations demonstrate that CARIBOU significantly improves the privacy-utility trade-off and achieves superior performance in privacy auditing tasks.
- Abstract(参考訳): 差分プライバシー(DP)はグラフニューラルネットワーク(GNN)に統合され、さまざまなアプリケーションにまたがる機密性の高い構造情報、例えばエッジ、ノード、関連する機能を保護する。
一般的なアプローチは、ほとんどのGNNアーキテクチャのコアとなるメッセージパッシングプロセスの摂動である。
しかし、既存の手法は一般的に、レイヤーの数に応じて線形に成長するプライバシーコスト(Usenix Security'23)を発生させ、最終的には適切なプライバシーレベルを維持するために過剰なノイズを必要とする。
この制限は、グラフの複雑な長距離相互作用を捉えるために深いGNNが必要なときに特に問題となる。
本稿では,標準のGNN操作に固有の制約特性を利用して,メッセージパッシングプロセスにプライバシ増幅技術を適用することにより,プライバシ予算がレイヤ数に対して収束できることを理論的に証明する。
この分析により、モデルユーティリティを保ちながら理論的保証に必要な契約性を確保するための、単純で効果的な契約グラフ層(CGL)を提案する。
当社のフレームワークであるCARIBOUは,トレーニングと推論の両方をサポートし,契約集約モジュール,プライバシ割り当てモジュール,プライバシ監査モジュールを備えている。
実験により,CARIBOUはプライバシ・ユーティリティ・トレードオフを大幅に改善し,プライバシ監査タスクにおいて優れた性能を発揮することが示された。
関連論文リスト
- Differentially Private Relational Learning with Entity-level Privacy Guarantees [17.567309430451616]
本研究は,形式的エンティティレベルDP保証を用いた関係学習の原則的枠組みを提案する。
本稿では,実体発生頻度に基づいてクリッピング閾値を変調する適応的勾配クリッピング方式を提案する。
これらの貢献により、プライバシー保証が保証されたリレーショナルデータに対して、DP-SGDの修正版が提供される。
論文 参考訳(メタデータ) (2025-06-10T02:03:43Z) - Convergent Differential Privacy Analysis for General Federated Learning: the $f$-DP Perspective [57.35402286842029]
フェデレートラーニング(Federated Learning, FL)は、ローカルプライバシを重視した効率的な協調トレーニングパラダイムである。
ディファレンシャルプライバシ(DP)は、私的保護の信頼性を捕捉し、保証するための古典的なアプローチである。
論文 参考訳(メタデータ) (2024-08-28T08:22:21Z) - Preserving Node-level Privacy in Graph Neural Networks [8.823710998526705]
グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
論文 参考訳(メタデータ) (2023-11-12T16:21:29Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。