論文の概要: An Energy Optimized Specializing DAG Federated Learning based on Event
Triggered Communication
- arxiv url: http://arxiv.org/abs/2209.12531v1
- Date: Mon, 26 Sep 2022 09:19:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:59:46.323131
- Title: An Energy Optimized Specializing DAG Federated Learning based on Event
Triggered Communication
- Title(参考訳): イベントトリガ通信に基づくDAGフェデレーション学習のためのエネルギー最適化
- Authors: Xiaofeng Xue, Haokun Mao, Qiong Li and Furong Huang
- Abstract要約: Directed Acyclic Graph Federated Learning (SDAGFL) は新たなフェデレーション学習フレームワークである。
本研究ではESDAGFLと呼ばれる,エネルギー最適化SDAGFLに基づくイベントトリガー通信機構を提案する。
実験の結果,SDAGFLと比較してエネルギー消費量を33%削減できることがわかった。
- 参考スコア(独自算出の注目度): 13.155898257014316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Specializing Directed Acyclic Graph Federated Learning(SDAGFL) is a new
federated learning framework which updates model from the devices with similar
data distribution through Directed Acyclic Graph Distributed Ledger Technology
(DAG-DLT). SDAGFL has the advantage of personalization, resisting single point
of failure and poisoning attack in fully decentralized federated learning.
Because of these advantages, the SDAGFL is suitable for the federated learning
in IoT scenario where the device is usually battery-powered. To promote the
application of SDAGFL in IoT, we propose an energy optimized SDAGFL based
event-triggered communication mechanism, called ESDAGFL. In ESDAGFL, the new
model is broadcasted only when it is significantly changed. We evaluate the
ESDAGFL on a clustered synthetically FEMNIST dataset and a dataset from texts
by Shakespeare and Goethe's works. The experiment results show that our
approach can reduce energy consumption by 33\% compared with SDAGFL, and
realize the same balance between training accuracy and specialization as
SDAGFL.
- Abstract(参考訳): Directed Acyclic Graph Federated Learning (SDAGFL) は、DAG-DLT (Directed Acyclic Graph Distributed Ledger Technology) を通じて、同様のデータ分布を持つデバイスからモデルを更新する新しいフェデレーション学習フレームワークである。
SDAGFLは個人化の利点があり、完全に分散化された連邦学習において単一障害点と中毒攻撃に抵抗する。
これらの利点のため、SDAGFLは、通常はバッテリー駆動のIoTシナリオにおけるフェデレーション学習に適している。
IoTにおけるSDAGFLの適用を促進するため,ESDAGFLと呼ばれるSDAGFLベースのイベントトリガー通信機構を提案する。
ESDAGFLでは、新しいモデルは大幅に変更されたときにのみ放送される。
本研究では,集合合成FEMNISTデータセットとシェークスピアとゲーテの作品のテキストからのデータセットを用いてESDAGFLを評価する。
実験の結果,sdagflと比較して,エネルギー消費量を33\%削減し,トレーニング精度とsdagflの特殊化のバランスを両立させることができた。
関連論文リスト
- Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Time-sensitive Learning for Heterogeneous Federated Edge Intelligence [52.83633954857744]
フェデレーションエッジインテリジェンス(FEI)システムにおけるリアルタイム機械学習について検討する。
FEIシステムは異種通信と計算資源分布を示す。
本稿では,共有MLモデルの協調学習における全体の実行時間を最小化するために,時間依存型フェデレーションラーニング(TS-FL)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-26T08:13:22Z) - FedGPO: Heterogeneity-Aware Global Parameter Optimization for Efficient
Federated Learning [11.093360539563657]
フェデレートラーニング(FL)は、機械学習トレーニングにおけるプライバシリークのリスクに対処するソリューションとして登場した。
我々は,モデル収束を保証しつつ,FLのエネルギー効率を最適化するFedGPOを提案する。
我々の実験では、FedGPOはモデル収束時間を2.4倍改善し、ベースライン設定の3.6倍のエネルギー効率を達成する。
論文 参考訳(メタデータ) (2022-11-30T01:22:57Z) - Exploring Deep Reinforcement Learning-Assisted Federated Learning for
Online Resource Allocation in EdgeIoT [53.68792408315411]
フェデレートラーニング(FL)は、モバイルエッジコンピューティングベースのInternet of Thing(EdgeIoT)における盗聴攻撃からデータトレーニングプライバシを保護するために、ますます検討されている。
本研究では,連続領域における最適精度とエネルギー収支を達成するために,FLDLT3フレームワークを提案する。
その結果、FL-DLT3は100回未満の高速収束を実現し、FLの精度-エネルギー消費比は既存の最先端ベンチマークと比較して51.8%向上した。
論文 参考訳(メタデータ) (2022-02-15T13:36:15Z) - Behavior Mimics Distribution: Combining Individual and Group Behaviors
for Federated Learning [26.36851197666568]
フェデレートラーニング(FL)は、アクティブで有望な分散機械学習パラダイムとなっている。
近年の研究では, ローカル更新によるクライアントのドリフトにより, FL法の性能が劇的に低下していることが示されている。
本稿では,個人とグループの両方の行動を利用して分布を模倣する新しいフェデレート学習アルゴリズム(IGFL)を提案する。
論文 参考訳(メタデータ) (2021-06-23T10:42:37Z) - Towards Heterogeneous Clients with Elastic Federated Learning [45.2715985913761]
フェデレーション学習では、エッジプロセッサやデータウェアハウスなどのデバイスやデータサイロ上で、データをローカルに保ちながら、マシンラーニングモデルをトレーニングする。
本稿では,不均一性に対処する非バイアスアルゴリズムであるElastic Federated Learning (EFL)を提案する。
上流と下流の両方の通信を圧縮する効率的かつ効率的なアルゴリズムである。
論文 参考訳(メタデータ) (2021-06-17T12:30:40Z) - Federated Learning for Internet of Things: A Federated Learning
Framework for On-device Anomaly Data Detection [10.232121085973782]
我々は、N-BaIoT、FedDetectアルゴリズム、IoTデバイスのシステム設計を使用した合成データセットを含むFedIoTプラットフォームを構築します。
現実的なIoTデバイス(PI)のネットワークにおいて,FedIoTプラットフォームとFedDetectアルゴリズムをモデルおよびシステムパフォーマンスの両方で評価する。
論文 参考訳(メタデータ) (2021-06-15T08:53:42Z) - Towards On-Device Federated Learning: A Direct Acyclic Graph-based
Blockchain Approach [2.9202274421296943]
本稿では,DAG(Direct Acyclic Graph)ベースのブロックチェーンシステム(DAG-FL)を用いたフェデレートラーニングを支援するフレームワークを提案する。
2つのアルゴリズムDAG-FL ControllingとDAG-FL Updatingは、DAG-FLコンセンサスメカニズムの操作を精巧にするために異なるノードで動作するように設計されています。
論文 参考訳(メタデータ) (2021-04-27T10:29:38Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。