論文の概要: A Framework for Energy and Carbon Footprint Analysis of Distributed and
Federated Edge Learning
- arxiv url: http://arxiv.org/abs/2103.10346v1
- Date: Thu, 18 Mar 2021 16:04:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 20:13:57.624483
- Title: A Framework for Energy and Carbon Footprint Analysis of Distributed and
Federated Edge Learning
- Title(参考訳): 分散型・フェデレーションエッジ学習のためのエネルギー・炭素フットプリント分析フレームワーク
- Authors: Stefano Savazzi, Sanaz Kianoush, Vittorio Rampa, Mehdi Bennis
- Abstract要約: 本稿では,分散学習政策の環境フットプリントに影響を与える要因を概説し,分析する。
バニラとコンセンサスによって駆動される分散FLポリシーの両方をモデル化する。
その結果、flは低ビット/ジュール効率を特徴とするワイヤレスシステムにおいて、顕著なエンドツーエンドの省エネ(30%-40%)が可能となった。
- 参考スコア(独自算出の注目度): 48.63610479916003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in distributed learning raise environmental concerns due to
the large energy needed to train and move data to/from data centers. Novel
paradigms, such as federated learning (FL), are suitable for decentralized
model training across devices or silos that simultaneously act as both data
producers and learners. Unlike centralized learning (CL) techniques, relying on
big-data fusion and analytics located in energy hungry data centers, in FL
scenarios devices collaboratively train their models without sharing their
private data. This article breaks down and analyzes the main factors that
influence the environmental footprint of FL policies compared with classical
CL/Big-Data algorithms running in data centers. The proposed analytical
framework takes into account both learning and communication energy costs, as
well as the carbon equivalent emissions; in addition, it models both vanilla
and decentralized FL policies driven by consensus. The framework is evaluated
in an industrial setting assuming a real-world robotized workplace. Results
show that FL allows remarkable end-to-end energy savings (30%-40%) for wireless
systems characterized by low bit/Joule efficiency (50 kbit/Joule or lower).
Consensus-driven FL does not require the parameter server and further reduces
emissions in mesh networks (200 kbit/Joule). On the other hand, all FL policies
are slower to converge when local data are unevenly distributed (often 2x
slower than CL). Energy footprint and learning loss can be traded off to
optimize efficiency.
- Abstract(参考訳): 分散学習の最近の進歩は、データセンターへのデータのトレーニングと移動に必要な大きなエネルギーのために環境問題を引き起こす。
フェデレーション学習(fl)のような新しいパラダイムは、データプロデューサと学習者の両方を同時に機能するデバイスやサイロ間の分散モデルトレーニングに適している。
集中型学習(cl)のテクニックとは異なり、flのシナリオでは、デバイスはプライベートデータを共有することなく、共同でモデルをトレーニングする。
この記事では、データセンターで動作する従来のCL/Big-Dataアルゴリズムと比較して、FLポリシーの環境フットプリントに影響を与える主な要因を分解し分析する。
提案する分析フレームワークは, 学習費と通信エネルギーコスト, 炭素等価排出量の両方を考慮に入れ, さらに, コンセンサスによって推進されるバニラ政策と分散型fl政策の両方をモデル化する。
このフレームワークは、現実のロボット化された職場を想定した産業環境で評価される。
その結果、FLは低ビット/ジュール効率(50kbit/ジュール以下)を特徴とする無線システムに対して、顕著なエンドツーエンドの省エネ(30%-40%)を可能にした。
コンセンサス駆動FLはパラメータサーバを必要とせず、メッシュネットワーク(200kbit/Joule)のエミッションを削減する。
一方、すべてのFLポリシーは、ローカルデータが不均一に分散されている場合(しばしばCLよりも2倍遅い)に収束する。
エネルギーフットプリントと学習損失をトレードオフして効率を最適化することができる。
関連論文リスト
- A Framework for testing Federated Learning algorithms using an edge-like environment [0.0]
フェデレーテッド・ラーニング(FL)は、多くのクライアントが、データをプライベートかつ分散化しながら、単一の集中型モデルを協調的にトレーニングする機械学習パラダイムである。
グローバル集中型モデルアグリゲーションにおける局所モデルの貢献を正確に評価するのは簡単ではない。
これはFLにおける大きな挑戦の例であり、一般にデータ不均衡またはクラス不均衡として知られている。
本研究では,FLアルゴリズムをより容易かつスケーラブルに評価するためのフレームワークを提案し,実装した。
論文 参考訳(メタデータ) (2024-07-17T19:52:53Z) - FLrce: Resource-Efficient Federated Learning with Early-Stopping Strategy [7.963276533979389]
フェデレートラーニング(FL)がIoT(Internet of Things)で大人気
FLrceは、関係ベースのクライアント選択と早期停止戦略を備えた効率的なFLフレームワークである。
その結果,既存のFLフレームワークと比較してFLrceは計算効率を少なくとも30%,通信効率を43%向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-15T10:13:44Z) - A Carbon Tracking Model for Federated Learning: Impact of Quantization and Sparsification [5.341266334051207]
フェデレートラーニング(FL)手法は効率的なコミュニケーション技術を採用し、エッジデバイスに機械学習タスクを分散させる。
本稿では,FLシステムのエネルギーおよび炭素フットプリントへの影響をリアルタイムにモニタリングするためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-12T07:20:03Z) - Semi-Federated Learning: Convergence Analysis and Optimization of A
Hybrid Learning Framework [70.83511997272457]
本稿では,ベースステーション(BS)とデバイスの両方を活用するセミフェデレーション学習(SemiFL)パラダイムを提案し,中央集権学習(CL)とFLのハイブリッド実装を提案する。
我々はこの難解な問題を解くための2段階のアルゴリズムを提案し、ビームフォーマに閉形式解を提供する。
論文 参考訳(メタデータ) (2023-10-04T03:32:39Z) - Green Federated Learning [7.003870178055125]
Federated Learning(FL)は、分散エンティティのデータを使用して集中型モデルをトレーニングする機械学習技術である。
FLは、多様なエネルギー源を持つ数億ものグローバル分散エンドユーザーデバイスを活用することができる。
提案するグリーンFLの概念は, FLパラメータを最適化し, 二酸化炭素排出量を最小化するための設計選択を行うものである。
論文 参考訳(メタデータ) (2023-03-26T02:23:38Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - An Energy and Carbon Footprint Analysis of Distributed and Federated
Learning [42.37180749113699]
古典的で中央集権的な人工知能(AI)手法では、生産者(センサー、マシン)からエネルギー空腹のデータセンターへデータを移動する必要がある。
このような高エネルギーコストを緩和する新たな代替手段は、デバイス間で学習タスクを効率的に分散またはフェデレートすることを提案している。
本稿では,分散学習におけるエネルギーおよび炭素フットプリントの分析のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-06-21T13:28:49Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。