論文の概要: A survey on secure decentralized optimization and learning
- arxiv url: http://arxiv.org/abs/2408.08628v1
- Date: Fri, 16 Aug 2024 09:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 16:07:32.357180
- Title: A survey on secure decentralized optimization and learning
- Title(参考訳): セキュアな分散最適化と学習に関する研究
- Authors: Changxin Liu, Nicola Bastianello, Wei Huo, Yang Shi, Karl H. Johansson,
- Abstract要約: 分散最適化は、データを集中化せずに大規模な意思決定問題を解決するための標準パラダイムとなっている。
このパラダイムは新たなプライバシとセキュリティリスクを導入し、悪意のあるエージェントがプライベートデータを推論したり、モデルの正確性を損なう可能性がある。
この調査は、これらの進歩に関する包括的なチュートリアルを提供する。
- 参考スコア(独自算出の注目度): 5.794084857284833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized optimization has become a standard paradigm for solving large-scale decision-making problems and training large machine learning models without centralizing data. However, this paradigm introduces new privacy and security risks, with malicious agents potentially able to infer private data or impair the model accuracy. Over the past decade, significant advancements have been made in developing secure decentralized optimization and learning frameworks and algorithms. This survey provides a comprehensive tutorial on these advancements. We begin with the fundamentals of decentralized optimization and learning, highlighting centralized aggregation and distributed consensus as key modules exposed to security risks in federated and distributed optimization, respectively. Next, we focus on privacy-preserving algorithms, detailing three cryptographic tools and their integration into decentralized optimization and learning systems. Additionally, we examine resilient algorithms, exploring the design and analysis of resilient aggregation and consensus protocols that support these systems. We conclude the survey by discussing current trends and potential future directions.
- Abstract(参考訳): 分散最適化は、大規模な意思決定問題を解決するための標準パラダイムとなり、データを集中化せずに大規模な機械学習モデルをトレーニングしている。
しかし、このパラダイムは新たなプライバシとセキュリティリスクを導入し、悪意のあるエージェントがプライベートデータを推論したり、モデルの正確性を損なう可能性がある。
過去10年間で、セキュアな分散最適化と学習フレームワークとアルゴリズムの開発において、大きな進歩があった。
この調査は、これらの進歩に関する包括的なチュートリアルを提供する。
分散最適化と学習の基礎から始まり、中央集権的な集約と分散コンセンサスを、それぞれフェデレートと分散最適化のセキュリティリスクにさらされる重要なモジュールとして強調する。
次に、プライバシ保護アルゴリズムに焦点を当て、3つの暗号ツールとその分散最適化および学習システムへの統合について詳述する。
さらに、レジリエントなアルゴリズムを検討し、これらのシステムをサポートするレジリエントなアグリゲーションとコンセンサスプロトコルの設計と分析を行う。
我々は現在の動向と今後の方向性を議論して調査を締めくくる。
関連論文リスト
- Center-Sensitive Kernel Optimization for Efficient On-Device Incremental Learning [88.78080749909665]
現在のオンデバイストレーニング手法は、破滅的な忘れを考慮せずに、効率的なトレーニングにのみ焦点をあてている。
本稿では,単純だが効果的なエッジフレンドリーなインクリメンタル学習フレームワークを提案する。
本手法は,メモリの削減と近似計算により,平均精度38.08%の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-13T05:49:29Z) - When Swarm Learning meets energy series data: A decentralized collaborative learning design based on blockchain [10.099134773737939]
機械学習モデルは、将来のエネルギー生産または消費を予測する機能を提供する。
しかし、特定のエネルギーセクター内の法と政策の制約は、様々な情報源のデータを利用する際に技術的ハードルをもたらす。
本稿では,集中型サーバをブロックチェーンベースの分散ネットワークに置き換えるSwarm Learningスキームを提案する。
論文 参考訳(メタデータ) (2024-06-07T08:42:26Z) - A Survey of Contextual Optimization Methods for Decision Making under
Uncertainty [47.73071218563257]
この記事では、データからポリシーを学ぶための3つの主要なフレームワークを特定し、その強みと限界について論じる。
統一的な表記と用語の下で既存のモデルとメソッドを示し、これらを3つの主要なフレームワークに従って分類する。
論文 参考訳(メタデータ) (2023-06-17T15:21:02Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Quantization enabled Privacy Protection in Decentralized Stochastic
Optimization [34.24521534464185]
分散最適化は、機械学習、制御、センサーネットワークのように多様な領域で使用することができる。
プライバシー保護は、分散最適化の実装において重要な必要性として浮上している。
本稿では,アグレッシブ量子化誤差が存在する場合でも,証明可能な収束精度を保証できるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-07T15:17:23Z) - Decentralized Stochastic Optimization with Inherent Privacy Protection [103.62463469366557]
分散最適化は、現代の協調機械学習、分散推定と制御、大規模センシングの基本的な構成要素である。
データが関与して以降、分散最適化アルゴリズムの実装において、プライバシ保護がますます重要になっている。
論文 参考訳(メタデータ) (2022-05-08T14:38:23Z) - Robust, Deep, and Reinforcement Learning for Management of Communication
and Power Networks [6.09170287691728]
本論文は、まず、分散不確実性や逆データに対して汎用機械学習モデルを堅牢にするための原則的手法を開発する。
次に、この堅牢なフレームワークの上に構築し、グラフメソッドによる堅牢な半教師付き学習を設計します。
この論文の第2部は、次世代の有線および無線ネットワークの可能性を完全に解き放つことを意図している。
論文 参考訳(メタデータ) (2022-02-08T05:49:06Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。