論文の概要: Enhancing Privacy in Decentralized Min-Max Optimization: A Differentially Private Approach
- arxiv url: http://arxiv.org/abs/2508.07505v1
- Date: Sun, 10 Aug 2025 23:24:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.888511
- Title: Enhancing Privacy in Decentralized Min-Max Optimization: A Differentially Private Approach
- Title(参考訳): 分散化されたMin-Max最適化におけるプライバシの強化 - 異なるプライベートアプローチ
- Authors: Yueyang Quan, Chang Wang, Shengjie Zhai, Minghong Fang, Zhuqing Liu,
- Abstract要約: 分散 min-max 最適化により、マルチエージェントシステムはグローバル min-max 最適化問題を協調的に解決できる。
このようなシステムにおけるモデル更新の共有は、機密性の高い推論攻撃のリスクを負う。
本稿では,非分散化min-max最適化に特化して設計された新しいアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.464594945625068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized min-max optimization allows multi-agent systems to collaboratively solve global min-max optimization problems by facilitating the exchange of model updates among neighboring agents, eliminating the need for a central server. However, sharing model updates in such systems carry a risk of exposing sensitive data to inference attacks, raising significant privacy concerns. To mitigate these privacy risks, differential privacy (DP) has become a widely adopted technique for safeguarding individual data. Despite its advantages, implementing DP in decentralized min-max optimization poses challenges, as the added noise can hinder convergence, particularly in non-convex scenarios with complex agent interactions in min-max optimization problems. In this work, we propose an algorithm called DPMixSGD (Differential Private Minmax Hybrid Stochastic Gradient Descent), a novel privacy-preserving algorithm specifically designed for non-convex decentralized min-max optimization. Our method builds on the state-of-the-art STORM-based algorithm, one of the fastest decentralized min-max solutions. We rigorously prove that the noise added to local gradients does not significantly compromise convergence performance, and we provide theoretical bounds to ensure privacy guarantees. To validate our theoretical findings, we conduct extensive experiments across various tasks and models, demonstrating the effectiveness of our approach.
- Abstract(参考訳): 分散 min-max 最適化により、近隣エージェント間のモデル更新の交換を容易にし、中央サーバを不要にすることで、マルチエージェントシステムがグローバル min-max 最適化問題を協調的に解決できる。
しかし、そのようなシステムにおけるモデル更新の共有は、機密データを推論攻撃にさらし、重大なプライバシー上の懸念を引き起こすリスクを負う。
これらのプライバシーリスクを軽減するため、差分プライバシー(DP)は個々のデータを保護するための広く採用されている技術となっている。
その利点にもかかわらず、分散されたmin-max最適化におけるDPの実装は、特にmin-max最適化問題における複雑なエージェント相互作用を持つ非凸シナリオにおいて、ノイズの追加が収束を妨げるため、課題を提起する。
本研究では,DPMixSGD(Differential Private Minmax Hybrid Stochastic Gradient Descent)と呼ばれる,非凸分散min-max最適化に特化して設計された新しいプライバシ保護アルゴリズムを提案する。
我々の手法は、最先端のSTORMベースのアルゴリズムに基づいており、最も高速な分散化min-maxソリューションの1つである。
局所勾配に付加されるノイズが収束性能を著しく損なうものではないことを厳密に証明し、プライバシー保証を保証する理論的境界を提供する。
理論的な結果を検証するため,様々なタスクやモデルにまたがる広範囲な実験を行い,提案手法の有効性を実証した。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - Differentially Private Decentralized Optimization with Relay Communication [1.2695958417031445]
プライバシリーク頻度(PLF)は,アルゴリズムの通信とプライバシリークの関係を明らかにする指標である。
DP-RECAL は, 演算子分割法と中継通信機構を利用して, PLF の低減を図っている。
論文 参考訳(メタデータ) (2022-12-21T09:05:36Z) - Decentralized Nonconvex Optimization with Guaranteed Privacy and
Accuracy [34.24521534464185]
プライバシ保護と中立性は、分散化された最適化学習の機密データにおいて難しい2つの問題である。
プライバシー保護と回避の両方を可能にするアルゴリズムを提案する。
このアルゴリズムは通信と計算の両方において効率的である。
論文 参考訳(メタデータ) (2022-12-14T22:36:13Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Bring Your Own Algorithm for Optimal Differentially Private Stochastic
Minimax Optimization [44.52870407321633]
これらの設定の聖杯は、プライバシーと過剰な人口減少の間の最適なトレードオフを保証することです。
微分プライベート・ミニマックス最適化(DP-SMO)問題を解くための一般的なフレームワークを提供する。
我々のフレームワークは、非滑らかな微分プライベート凸最適化(DP-SCO)のための最近提案されたフェイズド・ERM法[20]から着想を得たものである。
論文 参考訳(メタデータ) (2022-06-01T10:03:20Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Distributed Reinforcement Learning for Privacy-Preserving Dynamic Edge
Caching [91.50631418179331]
MECネットワークにおけるデバイスのキャッシュヒット率を最大化するために,プライバシ保護型分散ディープポリシー勾配(P2D3PG)を提案する。
分散最適化をモデルフリーなマルコフ決定プロセス問題に変換し、人気予測のためのプライバシー保護フェデレーション学習手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T02:48:27Z) - A Decentralized Adaptive Momentum Method for Solving a Class of Min-Max
Optimization Problems [9.653157073271021]
我々は、min-max最適化問題を解決するために、分散適応運動量 (ADAM) 型アルゴリズムを開発した。
我々は、(確率的な)一階のナッシュ平衡点を求めるための提案アルゴリズムの非漸近収束率を求める。
論文 参考訳(メタデータ) (2021-06-10T22:32:01Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Topology-aware Differential Privacy for Decentralized Image
Classification [81.2202290003513]
Top-DPは、分散画像分類システムの差分プライバシー保護を最適化するための新しいソリューションである。
我々は、分散化された通信トポロジのユニークな特徴を活用し、ノイズスケールを小さくし、モデルのユーザビリティを向上させる。
論文 参考訳(メタデータ) (2020-06-14T06:42:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。