論文の概要: DEAL: Decremental Energy-Aware Learning in a Federated System
- arxiv url: http://arxiv.org/abs/2102.03051v1
- Date: Fri, 5 Feb 2021 08:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 00:12:36.274677
- Title: DEAL: Decremental Energy-Aware Learning in a Federated System
- Title(参考訳): DEAL:フェデレーションシステムにおける省エネルギー学習
- Authors: Wenting Zou, Li Li, Zichen Xu, Chengzhong Xu
- Abstract要約: フェデレーション学習は、バッテリ駆動デバイス上での重いエネルギーフットプリントに苦慮している。
Dealはエネルギー効率のよい学習システムで、省エネとプライバシーの保護を、廃れた学習設計で行う。
すべての学習プロセスは、モデル収束の2~4倍までの実践的なFLフレームワークよりも高速である。
- 参考スコア(独自算出の注目度): 14.891078102508585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning struggles with their heavy energy footprint on
battery-powered devices. The learning process keeps all devices awake while
draining expensive battery power to train a shared model collaboratively, yet
it may still leak sensitive personal information. Traditional energy management
techniques in system kernel mode can force the training device entering low
power states, but it may violate the SLO of the collaborative learning. To
address the conflict between learning SLO and energy efficiency, we propose
DEAL, an energy efficient learning system that saves energy and preserves
privacy with a decremental learning design. DEAL reduces the energy footprint
from two layers: 1) an optimization layer that selects a subset of workers with
sufficient capacity and maximum rewards. 2) a specified decremental learning
algorithm that actively provides a decremental and incremental update
functions, which allows kernel to correctly tune the local DVFS. We prototyped
DEAL in containerized services with modern smartphone profiles and evaluated it
with several learning benchmarks with realistic traces. We observed that DEAL
achieves 75.6%-82.4% less energy footprint in different datasets, compared to
the traditional methods. All learning processes are faster than
state-of-the-practice FL frameworks up to 2-4X in model convergence.
- Abstract(参考訳): 連合学習は、バッテリー駆動デバイスでの重エネルギーフットプリントに苦しむ。
学習プロセスでは、すべてのデバイスが目覚め続けるとともに、高価なバッテリ電力を消費して、共有モデルを協調的に訓練する。
システムカーネルモードにおける従来のエネルギー管理技術は、トレーニング装置を低電力状態に強制することができるが、協調学習のSLOに違反する可能性がある。
本研究では,SLO学習とエネルギー効率の相違に対処するため,省エネとプライバシ保護のための省エネ学習システムであるDEALを提案する。
DEALは、2つの層からエネルギーフットプリントを削減します:1)十分な能力と最大の報酬を持つ労働者のサブセットを選択する最適化層。
2)デクリメントとインクリメンタルな更新関数を積極的に提供する特定デクリメント学習アルゴリズムは、カーネルがローカルdvfを正しくチューニングできるようにする。
われわれは、最新のスマートフォンプロファイルを持つコンテナ化されたサービスでDEALをプロトタイプ化し、現実的なトレースを持ついくつかの学習ベンチマークで評価した。
DEALが従来の方法と比較して、異なるデータセットのエネルギーフットプリントを75.6%-82.4%削減できることを観察した。
すべての学習プロセスは、モデル収束の2~4倍までの実践的なFLフレームワークよりも高速である。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - An effective and efficient green federated learning method for one-layer
neural networks [0.22499166814992436]
フェデレート・ラーニング(Federated Learning, FL)は、機械学習における最も活発な研究分野の一つである。
本研究では,1回のトレーニングラウンドでグローバルな協調モデルを生成可能な,隠れた層を持たないニューラルネットワークに基づくFL法を提案する。
本手法は同一および非同一の分散シナリオの両方において等しく機能することを示す。
論文 参考訳(メタデータ) (2023-12-22T08:52:08Z) - Decentralized federated learning methods for reducing communication cost
and energy consumption in UAV networks [8.21384946488751]
無人航空機(UAV)は、商品の配送、リアルタイム道路交通のマッピング、汚染の監視など、現代のスマートシティにおいて多くの役割を担っている。
従来のドローンの機械学習モデルは、データのプライバシー問題、通信コスト、エネルギー制限に遭遇する。
本稿では,UAVネットワークのための分散学習(DFL-UN)の既存アーキテクチャをベースとした,通信FLと代替FLの2つのアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2023-04-13T14:00:34Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FedTrees: A Novel Computation-Communication Efficient Federated Learning
Framework Investigated in Smart Grids [8.437758224218648]
次世代のスマートメーターは、エネルギー消費データの測定、記録、および報告に使用することができる。
FedTreesは、アンサンブル学習の際立った特徴の恩恵を受ける、新しくて軽量なFLフレームワークである。
論文 参考訳(メタデータ) (2022-09-30T19:47:46Z) - EAFL: Towards Energy-Aware Federated Learning on Battery-Powered Edge
Devices [3.448338949969246]
フェデレーテッド・ラーニング(FL)は、エッジデバイスがデータの集中化やプライバシーをデフォルトにすることなく、グローバルな機械学習モデルを協調的にトレーニングすることを可能にする、新たに登場したAIのブランチである。
大規模なデプロイメントでは、クライアントの不均一性は、正確性、公平性、時間といったトレーニング品質に影響を与える規範です。
我々は、エネルギー消費を考慮し、異種ターゲット装置の参加を最大化するエネルギー対応FL選択法EAFLを開発した。
論文 参考訳(メタデータ) (2022-08-09T02:15:45Z) - Energy Minimization for Federated Asynchronous Learning on
Battery-Powered Mobile Devices via Application Co-running [14.169614178617664]
エネルギーは必須だが、大規模な連合システムでは忘れられることが多い。
本稿では,フェデレートトレーニングの非同期実行とアプリケーション協調実行を接続することで,オンライン最適化フレームワークの設計と実装を行う。
実験により、オンライン最適化フレームワークは、以前のスキームの3倍の収束速度で60%以上のエネルギーを節約できることが示された。
論文 参考訳(メタデータ) (2022-04-29T04:34:06Z) - FedDUAP: Federated Learning with Dynamic Update and Adaptive Pruning
Using Shared Data on the Server [64.94942635929284]
フェデレーテッド・ラーニング(FL)は2つの重要な課題、すなわち限られた計算資源と訓練効率の低下に悩まされている。
本稿では,サーバ上の不感なデータとエッジデバイスの分散データを利用する新しいFLフレームワークであるFedDUAPを提案する。
提案するFLモデルであるFedDUAPは,2つの元の手法を統合することで,精度(最大4.8%),効率(最大2.8倍),計算コスト(最大61.9%)において,ベースラインアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2022-04-25T10:00:00Z) - SmartDeal: Re-Modeling Deep Network Weights for Efficient Inference and
Training [82.35376405568975]
ディープニューラルネットワーク(DNN)は重いパラメータ化を伴い、ストレージ用の外部動的ランダムアクセスメモリ(DRAM)につながります。
We present SmartDeal (SD), a algorithm framework to trade high-cost memory storage/ access for lower-cost compute。
SDは貯蔵および訓練エネルギーの10.56xそして4.48x減少、最先端の訓練のベースラインと比較される無視可能な正確さの損失をもたらすことを示します。
論文 参考訳(メタデータ) (2021-01-04T18:54:07Z) - To Talk or to Work: Flexible Communication Compression for Energy
Efficient Federated Learning over Heterogeneous Mobile Edge Devices [78.38046945665538]
巨大なモバイルエッジデバイス上でのフェデレーション学習(FL)は、多数のインテリジェントなモバイルアプリケーションのための新たな地平を開く。
FLは、定期的なグローバル同期と継続的なローカルトレーニングにより、参加するデバイスに膨大な通信と計算負荷を課す。
フレキシブルな通信圧縮を可能にする収束保証FLアルゴリズムを開発。
論文 参考訳(メタデータ) (2020-12-22T02:54:18Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。