論文の概要: Multi-View Graph Feature Propagation for Privacy Preservation and Feature Sparsity
- arxiv url: http://arxiv.org/abs/2510.11347v1
- Date: Mon, 13 Oct 2025 12:42:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.365741
- Title: Multi-View Graph Feature Propagation for Privacy Preservation and Feature Sparsity
- Title(参考訳): プライバシー保護と特徴空間のためのマルチビューグラフ機能プロパゲーション
- Authors: Etzion Harari, Moshe Unger,
- Abstract要約: グラフニューラルネットワーク(GNN)は、関係データよりもノード分類タスクにおいて顕著な成功を収めている。
特徴行列は非常にスパースで、センシティブな情報を含んでいるため、パフォーマンスが低下し、プライバシーリスクが増大する。
本稿では,プライバシ保護を推進しつつ,特徴空間におけるノード分類を強化した新しい多視点特徴伝搬フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.45835414225547183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated remarkable success in node classification tasks over relational data, yet their effectiveness often depends on the availability of complete node features. In many real-world scenarios, however, feature matrices are highly sparse or contain sensitive information, leading to degraded performance and increased privacy risks. Furthermore, direct exposure of information can result in unintended data leakage, enabling adversaries to infer sensitive information. To address these challenges, we propose a novel Multi-view Feature Propagation (MFP) framework that enhances node classification under feature sparsity while promoting privacy preservation. MFP extends traditional Feature Propagation (FP) by dividing the available features into multiple Gaussian-noised views, each propagating information independently through the graph topology. The aggregated representations yield expressive and robust node embeddings. This framework is novel in two respects: it introduces a mechanism that improves robustness under extreme sparsity, and it provides a principled way to balance utility with privacy. Extensive experiments conducted on graph datasets demonstrate that MFP outperforms state-of-the-art baselines in node classification while substantially reducing privacy leakage. Moreover, our analysis demonstrates that propagated outputs serve as alternative imputations rather than reconstructions of the original features, preserving utility without compromising privacy. A comprehensive sensitivity analysis further confirms the stability and practical applicability of MFP across diverse scenarios. Overall, MFP provides an effective and privacy-aware framework for graph learning in domains characterized by missing or sensitive features.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、リレーショナルデータよりもノード分類タスクにおいて顕著な成功を収めている。
しかし、現実世界の多くのシナリオでは、機能マトリックスは非常に疎いか機密性の高い情報を含んでいるため、パフォーマンスが低下し、プライバシーリスクが増大する。
さらに、情報の直接露光は意図しないデータ漏洩を引き起こし、敵は機密情報を推測することができる。
これらの課題に対処するため、我々は、プライバシー保護を推進しつつ、特徴空間におけるノード分類を強化したMFP(Multi-view Feature Propagation)フレームワークを提案する。
MFPは、利用可能な機能を複数のガウス記入ビューに分割し、グラフトポロジを通じて独立して情報を伝播することによって、伝統的な特徴伝達(FP)を拡張している。
集約された表現は表現的かつ堅牢なノード埋め込みをもたらす。
このフレームワークは、2つの点で斬新なものだ。極端に疎らさの下で堅牢性を改善するメカニズムを導入し、ユーティリティとプライバシのバランスをとるための原則化された方法を提供する。
グラフデータセット上で実施された大規模な実験により、MFPはノード分類における最先端のベースラインよりも優れ、プライバシーの漏洩を大幅に低減することが示された。
さらに,本分析は,プロパゲーション出力が,本来の特徴の再構築よりも代替的なインパクションとして機能し,プライバシーを損なうことなく実用性を維持することを実証している。
総合感度解析により、様々なシナリオにおけるMFPの安定性と実用性をさらに確認できる。
全体として、MFPは、欠落またはセンシティブな機能によって特徴づけられる領域におけるグラフ学習のための効果的でプライバシーに配慮したフレームワークを提供する。
関連論文リスト
- MS-IMAP -- A Multi-Scale Graph Embedding Approach for Interpretable Manifold Learning [1.8124328823188354]
本稿では,スペクトルグラフウェーブレットに基づくマルチスケールグラフネットワークの埋め込みフレームワークを提案する。
提案した埋め込みの重要な利点は、埋め込みと入力特徴空間の対応性を確立する能力である。
下流タスクにおける複数の公開データセットに対するグラフ埋め込みフレームワークの有効性を検証する。
論文 参考訳(メタデータ) (2024-06-04T20:48:33Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - RARE: Robust Masked Graph Autoencoder [45.485891794905946]
Masked graph autoencoder (MGAE) は、有望な自己教師付きグラフ事前学習(SGP)パラダイムとして登場した。
本稿では,ロバストmAsked gRaph autoEncoder (RARE) と呼ばれる新しいSGP手法を提案する。
論文 参考訳(メタデータ) (2023-04-04T03:35:29Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Handling Distribution Shifts on Graphs: An Invariance Perspective [78.31180235269035]
我々は、グラフ上のOOD問題を定式化し、新しい不変学習手法である探索・拡張リスク最小化(EERM)を開発する。
EERMは、複数の仮想環境からのリスクの分散を最大化するために、敵対的に訓練された複数のコンテキストエクスプローラーを利用する。
理論的に有効なOOD解の保証を示すことによって,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-02-05T02:31:01Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。