論文の概要: A survey on secure decentralized optimization and learning
- arxiv url: http://arxiv.org/abs/2408.08628v1
- Date: Fri, 16 Aug 2024 09:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:07:32.357180
- Title: A survey on secure decentralized optimization and learning
- Title(参考訳): セキュアな分散最適化と学習に関する研究
- Authors: Changxin Liu, Nicola Bastianello, Wei Huo, Yang Shi, Karl H. Johansson,
- Abstract要約: 分散最適化は、データを集中化せずに大規模な意思決定問題を解決するための標準パラダイムとなっている。
このパラダイムは新たなプライバシとセキュリティリスクを導入し、悪意のあるエージェントがプライベートデータを推論したり、モデルの正確性を損なう可能性がある。
この調査は、これらの進歩に関する包括的なチュートリアルを提供する。
- 参考スコア(独自算出の注目度): 5.794084857284833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized optimization has become a standard paradigm for solving large-scale decision-making problems and training large machine learning models without centralizing data. However, this paradigm introduces new privacy and security risks, with malicious agents potentially able to infer private data or impair the model accuracy. Over the past decade, significant advancements have been made in developing secure decentralized optimization and learning frameworks and algorithms. This survey provides a comprehensive tutorial on these advancements. We begin with the fundamentals of decentralized optimization and learning, highlighting centralized aggregation and distributed consensus as key modules exposed to security risks in federated and distributed optimization, respectively. Next, we focus on privacy-preserving algorithms, detailing three cryptographic tools and their integration into decentralized optimization and learning systems. Additionally, we examine resilient algorithms, exploring the design and analysis of resilient aggregation and consensus protocols that support these systems. We conclude the survey by discussing current trends and potential future directions.
- Abstract(参考訳): 分散最適化は、大規模な意思決定問題を解決するための標準パラダイムとなり、データを集中化せずに大規模な機械学習モデルをトレーニングしている。
しかし、このパラダイムは新たなプライバシとセキュリティリスクを導入し、悪意のあるエージェントがプライベートデータを推論したり、モデルの正確性を損なう可能性がある。
過去10年間で、セキュアな分散最適化と学習フレームワークとアルゴリズムの開発において、大きな進歩があった。
この調査は、これらの進歩に関する包括的なチュートリアルを提供する。
分散最適化と学習の基礎から始まり、中央集権的な集約と分散コンセンサスを、それぞれフェデレートと分散最適化のセキュリティリスクにさらされる重要なモジュールとして強調する。
次に、プライバシ保護アルゴリズムに焦点を当て、3つの暗号ツールとその分散最適化および学習システムへの統合について詳述する。
さらに、レジリエントなアルゴリズムを検討し、これらのシステムをサポートするレジリエントなアグリゲーションとコンセンサスプロトコルの設計と分析を行う。
我々は現在の動向と今後の方向性を議論して調査を締めくくる。
関連論文リスト
- RESIST: Resilient Decentralized Learning Using Consensus Gradient Descent [11.22833419439317]
経験的堅牢性リスク(ERM)は、現代の機械学習(ML)の基盤である
本稿では,MITM(man-in-the-middle)攻撃に焦点をあてる。
本稿では,敵に妥協された通信リンクに対して堅牢なアルゴリズムであるRESISTを提案する。
論文 参考訳(メタデータ) (2025-02-11T21:48:10Z) - Protocol Learning, Decentralized Frontier Risk and the No-Off Problem [56.74434512241989]
私たちは第3のパラダイムであるプロトコル学習(Protocol Learning)を特定します。
このアプローチは、単一の集中型エンティティよりも桁違いに多くの計算資源を集約する可能性がある。
また、不均一で信頼性の低いノード、悪意のある参加者、インセンティブを維持するために抽出不可能なモデルの必要性、複雑なガバナンスのダイナミクスなど、新しい課題も導入されている。
論文 参考訳(メタデータ) (2024-12-10T19:53:50Z) - Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Quantization enabled Privacy Protection in Decentralized Stochastic
Optimization [34.24521534464185]
分散最適化は、機械学習、制御、センサーネットワークのように多様な領域で使用することができる。
プライバシー保護は、分散最適化の実装において重要な必要性として浮上している。
本稿では,アグレッシブ量子化誤差が存在する場合でも,証明可能な収束精度を保証できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-07T15:17:23Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。