論文の概要: Panther: A Cost-Effective Privacy-Preserving Framework for GNN Training and Inference Services in Cloud Environments
- arxiv url: http://arxiv.org/abs/2511.01654v1
- Date: Mon, 03 Nov 2025 15:15:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.307279
- Title: Panther: A Cost-Effective Privacy-Preserving Framework for GNN Training and Inference Services in Cloud Environments
- Title(参考訳): Panther: クラウド環境におけるGNNトレーニングと推論サービスのためのコスト効果のあるプライバシ保護フレームワーク
- Authors: Congcong Chen, Xinyu Liu, Kaifeng Huang, Lifei Wei, Yang Shi,
- Abstract要約: クラウド環境におけるGNNトレーニングおよび推論サービスのための費用対効果の高いプライバシ保護フレームワークであるPantherを紹介した。
パンサーは、平均75.28%と82.80%のトレーニング時間と、平均52.61%と50.26%の通信オーバーヘッドを減らしている。
- 参考スコア(独自算出の注目度): 9.562086168620668
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have marked significant impact in traffic state prediction, social recommendation, knowledge-aware question answering and so on. As more and more users move towards cloud computing, it has become a critical issue to unleash the power of GNNs while protecting the privacy in cloud environments. Specifically, the training data and inference data for GNNs need to be protected from being stolen by external adversaries. Meanwhile, the financial cost of cloud computing is another primary concern for users. Therefore, although existing studies have proposed privacy-preserving techniques for GNNs in cloud environments, their additional computational and communication overhead remain relatively high, causing high financial costs that limit their widespread adoption among users. To protect GNN privacy while lowering the additional financial costs, we introduce Panther, a cost-effective privacy-preserving framework for GNN training and inference services in cloud environments. Technically, Panther leverages four-party computation to asynchronously executing the secure array access protocol, and randomly pads the neighbor information of GNN nodes. We prove that Panther can protect privacy for both training and inference of GNN models. Our evaluation shows that Panther reduces the training and inference time by an average of 75.28% and 82.80%, respectively, and communication overhead by an average of 52.61% and 50.26% compared with the state-of-the-art, which is estimated to save an average of 55.05% and 59.00% in financial costs (based on on-demand pricing model) for the GNN training and inference process on Google Cloud Platform.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,交通状況の予測,社会的推薦,知識を考慮した質問応答などに大きな影響を与えている。
クラウドコンピューティングへの移行が進むにつれ、GNNのパワーを解き放ちつつ、クラウド環境のプライバシを保護する上で重要な問題となっている。
具体的には、GNNのトレーニングデータと推論データは、外部の敵によって盗まれることを防ぐ必要がある。
一方、クラウドコンピューティングの経済的コストは、ユーザにとって大きな懸念事項である。
そのため,クラウド環境におけるGNNのプライバシ保護手法が提案されているが,その追加の計算・通信オーバーヘッドは比較的高いままであり,ユーザ間で広く普及するのを妨げる金銭的コストが高い。
追加費用を削減しながらGNNのプライバシを保護するため,クラウド環境におけるGNNトレーニングおよび推論サービスのための費用対効果の高いプライバシ保護フレームワークであるPantherを紹介した。
技術的には、Pantherは4つのパーティの計算を利用してセキュアな配列アクセスプロトコルを非同期に実行し、GNNノードの隣の情報をランダムにパッドする。
我々は、PantherがGNNモデルのトレーニングと推論の両方でプライバシを保護できることを証明した。
評価の結果,Google Cloud PlatformにおけるGNNトレーニングおよび推論プロセスの費用(オンデマンド価格モデルに基づく)の平均55.05%と59.00%を節約すると推定される最先端技術と比較して,Pantherは平均75.28%と82.80%のトレーニング時間と通信オーバーヘッドを平均52.61%と50.26%削減した。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Releasing Graph Neural Networks with Differential Privacy Guarantees [0.81308403220442]
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
論文 参考訳(メタデータ) (2021-09-18T11:35:19Z) - Privacy Inference Attacks and Defenses in Cloud-based Deep Neural
Network: A Survey [22.706623721832486]
クラウドコンピューティングプロバイダは、クラウドベースのDeep Neural Networkをアウトオブボックスサービスとして提供する。
この調査は、クラウドベースのニューラルネットワークサービスで発生したプライバシー攻撃と防御の最新の調査結果を示しています。
クラウドベースのMLプライバシーゲームと呼ばれる新しい理論は、最近発表された文献から抽出され、最先端の研究の深い理解を提供します。
論文 参考訳(メタデータ) (2021-05-13T13:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。