論文の概要: Panther: A Cost-Effective Privacy-Preserving Framework for GNN Training and Inference Services in Cloud Environments
- arxiv url: http://arxiv.org/abs/2511.01654v1
- Date: Mon, 03 Nov 2025 15:15:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:27.307279
- Title: Panther: A Cost-Effective Privacy-Preserving Framework for GNN Training and Inference Services in Cloud Environments
- Title(参考訳): Panther: クラウド環境におけるGNNトレーニングと推論サービスのためのコスト効果のあるプライバシ保護フレームワーク
- Authors: Congcong Chen, Xinyu Liu, Kaifeng Huang, Lifei Wei, Yang Shi,
- Abstract要約: クラウド環境におけるGNNトレーニングおよび推論サービスのための費用対効果の高いプライバシ保護フレームワークであるPantherを紹介した。
パンサーは、平均75.28%と82.80%のトレーニング時間と、平均52.61%と50.26%の通信オーバーヘッドを減らしている。
- 参考スコア(独自算出の注目度): 9.562086168620668
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have marked significant impact in traffic state prediction, social recommendation, knowledge-aware question answering and so on. As more and more users move towards cloud computing, it has become a critical issue to unleash the power of GNNs while protecting the privacy in cloud environments. Specifically, the training data and inference data for GNNs need to be protected from being stolen by external adversaries. Meanwhile, the financial cost of cloud computing is another primary concern for users. Therefore, although existing studies have proposed privacy-preserving techniques for GNNs in cloud environments, their additional computational and communication overhead remain relatively high, causing high financial costs that limit their widespread adoption among users. To protect GNN privacy while lowering the additional financial costs, we introduce Panther, a cost-effective privacy-preserving framework for GNN training and inference services in cloud environments. Technically, Panther leverages four-party computation to asynchronously executing the secure array access protocol, and randomly pads the neighbor information of GNN nodes. We prove that Panther can protect privacy for both training and inference of GNN models. Our evaluation shows that Panther reduces the training and inference time by an average of 75.28% and 82.80%, respectively, and communication overhead by an average of 52.61% and 50.26% compared with the state-of-the-art, which is estimated to save an average of 55.05% and 59.00% in financial costs (based on on-demand pricing model) for the GNN training and inference process on Google Cloud Platform.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,交通状況の予測,社会的推薦,知識を考慮した質問応答などに大きな影響を与えている。
クラウドコンピューティングへの移行が進むにつれ、GNNのパワーを解き放ちつつ、クラウド環境のプライバシを保護する上で重要な問題となっている。
具体的には、GNNのトレーニングデータと推論データは、外部の敵によって盗まれることを防ぐ必要がある。
一方、クラウドコンピューティングの経済的コストは、ユーザにとって大きな懸念事項である。
そのため,クラウド環境におけるGNNのプライバシ保護手法が提案されているが,その追加の計算・通信オーバーヘッドは比較的高いままであり,ユーザ間で広く普及するのを妨げる金銭的コストが高い。
追加費用を削減しながらGNNのプライバシを保護するため,クラウド環境におけるGNNトレーニングおよび推論サービスのための費用対効果の高いプライバシ保護フレームワークであるPantherを紹介した。
技術的には、Pantherは4つのパーティの計算を利用してセキュアな配列アクセスプロトコルを非同期に実行し、GNNノードの隣の情報をランダムにパッドする。
我々は、PantherがGNNモデルのトレーニングと推論の両方でプライバシを保護できることを証明した。
評価の結果,Google Cloud PlatformにおけるGNNトレーニングおよび推論プロセスの費用(オンデマンド価格モデルに基づく)の平均55.05%と59.00%を節約すると推定される最先端技術と比較して,Pantherは平均75.28%と82.80%のトレーニング時間と通信オーバーヘッドを平均52.61%と50.26%削減した。
関連論文リスト
- Certified Defense on the Fairness of Graph Neural Networks [86.14235652889242]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Privacy-Preserving Graph Neural Network Training and Inference as a
Cloud Service [15.939214141337803]
SecGNNは、軽量暗号と機械学習技術に関する洞察の相乗効果から構築されている。
SecGNNは、ほぼ手頃な性能で、同等のトレーニングと推論の精度を達成できることを示す。
論文 参考訳(メタデータ) (2022-02-16T02:57:10Z) - Releasing Graph Neural Networks with Differential Privacy Guarantees [0.81308403220442]
我々は,GNNモデルを集中的にリリースするためのプライバシ保護フレームワークであるPrivGNNを提案する。
PrivGNNは、知識蒸留フレームワークとランダムサブサンプリングとノイズラベリングという2つのノイズメカニズムを組み合わせることで、厳格なプライバシー保証を保証する。
論文 参考訳(メタデータ) (2021-09-18T11:35:19Z) - Privacy Inference Attacks and Defenses in Cloud-based Deep Neural
Network: A Survey [22.706623721832486]
クラウドコンピューティングプロバイダは、クラウドベースのDeep Neural Networkをアウトオブボックスサービスとして提供する。
この調査は、クラウドベースのニューラルネットワークサービスで発生したプライバシー攻撃と防御の最新の調査結果を示しています。
クラウドベースのMLプライバシーゲームと呼ばれる新しい理論は、最近発表された文献から抽出され、最先端の研究の深い理解を提供します。
論文 参考訳(メタデータ) (2021-05-13T13:45:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。