論文の概要: Bayesian Variational Federated Learning and Unlearning in Decentralized
Networks
- arxiv url: http://arxiv.org/abs/2104.03834v1
- Date: Thu, 8 Apr 2021 15:18:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:14:58.674673
- Title: Bayesian Variational Federated Learning and Unlearning in Decentralized
Networks
- Title(参考訳): 分散ネットワークにおけるベイズ変分フェデレーション学習とアンラーニング
- Authors: Jinu Gong, Osvaldo Simeone, Joonhyuk Kang
- Abstract要約: 本稿では,ベイズフレームワーク内の分散ネットワークにおけるフェデレート学習とアンラーニングについて述べる。
局所的自由エネルギー最小化問題の分散解に基づいて、フェデレーション付き変分推論(VI)ソリューションを特に開発する。
- 参考スコア(独自算出の注目度): 37.62407138487514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Bayesian learning offers a principled framework for the definition
of collaborative training algorithms that are able to quantify epistemic
uncertainty and to produce trustworthy decisions. Upon the completion of
collaborative training, an agent may decide to exercise her legal "right to be
forgotten", which calls for her contribution to the jointly trained model to be
deleted and discarded. This paper studies federated learning and unlearning in
a decentralized network within a Bayesian framework. It specifically develops
federated variational inference (VI) solutions based on the decentralized
solution of local free energy minimization problems within exponential-family
models and on local gossip-driven communication. The proposed protocols are
demonstrated to yield efficient unlearning mechanisms.
- Abstract(参考訳): 連合ベイズ学習(federated bayesian learning)は、認識論的不確実性を定量化し、信頼できる意思決定を可能にする、協調的トレーニングアルゴリズムの定義のための原則付きフレームワークを提供する。
共同訓練が完了すると、エージェントは彼女の法的「忘れられる権利」を行使することを決断し、共同で訓練されたモデルへの彼女の貢献を削除および破棄するよう要求する。
本稿では,ベイズフレームワーク内の分散ネットワークにおけるフェデレート学習とアンラーニングについて述べる。
指数型モデル内の局所自由エネルギー最小化問題の分散解と、局所ゴシップ駆動通信に基づくフェデレーション付き変分推論(VI)ソリューションを特に開発する。
提案プロトコルは,効率的な学習機構を実現する。
関連論文リスト
- Decentralized multi-agent reinforcement learning algorithm using a cluster-synchronized laser network [1.124958340749622]
競合するマルチアームバンディット問題に対処するフォトニクスに基づく意思決定アルゴリズムを提案する。
シミュレーションにより,光結合型レーザーのカオス振動とクラスタ同期,分散結合調整,探索と利用の効率向上が示された。
論文 参考訳(メタデータ) (2024-07-12T09:38:47Z) - Initialisation and Network Effects in Decentralised Federated Learning [1.5961625979922607]
分散フェデレーション学習は、通信デバイスの分散ネットワーク上で、個々の機械学習モデルの協調トレーニングを可能にする。
このアプローチは、集中的な調整を避け、データのプライバシを高め、単一障害点のリスクを取り除く。
本稿では,基盤となる通信ネットワークの固有ベクトル集中度分布に基づく,ニューラルネットワークの非協調初期化戦略を提案する。
論文 参考訳(メタデータ) (2024-03-23T14:24:36Z) - Imitation Learning based Alternative Multi-Agent Proximal Policy
Optimization for Well-Formed Swarm-Oriented Pursuit Avoidance [15.498559530889839]
本稿では,分散学習に基づく代替的マルチエージェント・プロキシ・ポリシー最適化(IA-MAPPO)アルゴリズムを提案する。
擬似学習を利用して生成コントローラを分散化し,通信オーバーヘッドを低減し,スケーラビリティを向上させる。
シミュレーションの結果,IA-MAPPOの有効性が検証され,広範囲なアブレーション実験により,通信オーバーヘッドが著しく減少する集中型解に匹敵する性能が示された。
論文 参考訳(メタデータ) (2023-11-06T06:58:16Z) - Networked Communication for Decentralised Agents in Mean-Field Games [59.01527054553122]
平均フィールドゲームフレームワークにネットワーク通信を導入する。
当社のアーキテクチャは、中央集権型と独立した学習ケースの双方で保証されていることを証明しています。
論文 参考訳(メタデータ) (2023-06-05T10:45:39Z) - When Decentralized Optimization Meets Federated Learning [41.58479981773202]
フェデレーション学習は、分散データから知識を抽出するための新しい学習パラダイムである。
既存のフェデレートされた学習アプローチのほとんどは、単一ポイントの障害に対して脆弱な集中的な設定に集中しています。
この問題に対処する別の戦略は、分散化された通信トポロジである。
論文 参考訳(メタデータ) (2023-06-05T03:51:14Z) - Event-Triggered Decentralized Federated Learning over
Resource-Constrained Edge Devices [12.513477328344255]
Federated Learning (FL)は分散機械学習(ML)のための技術である
従来のFLアルゴリズムでは、エッジで訓練されたモデルを中央サーバに定期的に送信して集約する。
我々は、デバイスが協調的なコンセンサス形成を通じてモデルアグリゲーションを行う完全分散FLのための新しい手法を開発した。
論文 参考訳(メタデータ) (2022-11-23T00:04:05Z) - Finite-Time Consensus Learning for Decentralized Optimization with
Nonlinear Gossiping [77.53019031244908]
本稿では,非線形ゴシップ(NGO)に基づく分散学習フレームワークを提案する。
コミュニケーション遅延とランダム化チャットが学習にどう影響するかを解析することで,実践的なバリエーションの導出が可能となる。
論文 参考訳(メタデータ) (2021-11-04T15:36:25Z) - Consensus Control for Decentralized Deep Learning [72.50487751271069]
ディープラーニングモデルの分散トレーニングは、ネットワーク上のデバイス上での学習と、大規模計算クラスタへの効率的なスケーリングを可能にする。
理論上、トレーニングコンセンサス距離が重要な量よりも低い場合、分散化されたトレーニングは集中的なトレーニングよりも早く収束することを示す。
私たちの経験的な洞察は、パフォーマンス低下を軽減するために、より分散化されたトレーニングスキームの原則設計を可能にします。
論文 参考訳(メタデータ) (2021-02-09T13:58:33Z) - Toward Multiple Federated Learning Services Resource Sharing in Mobile
Edge Networks [88.15736037284408]
本稿では,マルチアクセスエッジコンピューティングサーバにおいて,複数のフェデレーション付き学習サービスの新たなモデルについて検討する。
共同資源最適化とハイパーラーニング率制御の問題,すなわちMS-FEDLを提案する。
シミュレーションの結果,提案アルゴリズムの収束性能を実証した。
論文 参考訳(メタデータ) (2020-11-25T01:29:41Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。