論文の概要: OCD-FL: A Novel Communication-Efficient Peer Selection-based
Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2403.04037v1
- Date: Wed, 6 Mar 2024 20:34:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:52:42.379732
- Title: OCD-FL: A Novel Communication-Efficient Peer Selection-based
Decentralized Federated Learning
- Title(参考訳): OCD-FL: コミュニケーション効率の良いペア選択型分散フェデレーション学習
- Authors: Nizar Masmoudi, Wael Jaafar
- Abstract要約: 本稿では,OCD-FL(Opportunistic Communication- efficient decentralized Federated Learning)方式を提案する。
OCD-FLは協調作業のための系統的なFLピア選択で構成され,エネルギー消費を低減しつつ,FL知識の最大ゲインを達成することを目的としている。
実験の結果,OCD-FLは完全協調型FLと同等あるいは良好な性能を達成でき,消費エネルギーを少なくとも30%,最大80%低減できることがわかった。
- 参考スコア(独自算出の注目度): 2.603477777158694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The conjunction of edge intelligence and the ever-growing Internet-of-Things
(IoT) network heralds a new era of collaborative machine learning, with
federated learning (FL) emerging as the most prominent paradigm. With the
growing interest in these learning schemes, researchers started addressing some
of their most fundamental limitations. Indeed, conventional FL with a central
aggregator presents a single point of failure and a network bottleneck. To
bypass this issue, decentralized FL where nodes collaborate in a peer-to-peer
network has been proposed. Despite the latter's efficiency, communication costs
and data heterogeneity remain key challenges in decentralized FL. In this
context, we propose a novel scheme, called opportunistic
communication-efficient decentralized federated learning, a.k.a., OCD-FL,
consisting of a systematic FL peer selection for collaboration, aiming to
achieve maximum FL knowledge gain while reducing energy consumption.
Experimental results demonstrate the capability of OCD-FL to achieve similar or
better performances than the fully collaborative FL, while significantly
reducing consumed energy by at least 30% and up to 80%.
- Abstract(参考訳): エッジインテリジェンスと成長を続けるIoT(Internet-of-Things)ネットワークの組み合わせは、コラボレーティブ機械学習の新たな時代を告げるものだ。
これらの学習手法への関心が高まり、研究者たちは最も基本的な制限に対処し始めた。
実際、中央アグリゲータを持つ従来のFLは、単一障害点とネットワークボトルネックを提示する。
この問題を回避するためにピアツーピアネットワークでノードが協調する分散flが提案されている。
後者の効率にもかかわらず、通信コストとデータ不均一性は、分散FLの重要な課題である。
そこで本研究では,協調のための系統的flピア選択により,最大fl知識獲得を達成し,エネルギー消費を削減することを目的とした,日和見的コミュニケーション効率の高い分散連合学習(ocd-fl)を提案する。
実験の結果,OCD-FLは完全協調型FLと同等あるいは良好な性能を達成でき,消費エネルギーを少なくとも30%,最大80%低減できることがわかった。
関連論文リスト
- FedCompetitors: Harmonious Collaboration in Federated Learning with
Competing Participants [41.070716405671206]
フェデレートラーニング(FL)は、機械学習モデルの協調トレーニングのためのプライバシ保護アプローチを提供する。
データ補完性に基づいて各FL参加者に対して適切な協力者を選択することが重要である。
一部のFL-PTが競合するFL-PT間の個人間関係を考えることは必須である。
論文 参考訳(メタデータ) (2023-12-18T17:53:01Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Communication Resources Constrained Hierarchical Federated Learning for
End-to-End Autonomous Driving [67.78611905156808]
本稿では,最適化に基づくコミュニケーションリソース制約付き階層型学習フレームワークを提案する。
その結果,提案したCRCHFLは収束速度を加速し,フェデレーション学習自律運転モデルの一般化を促進することがわかった。
論文 参考訳(メタデータ) (2023-06-28T12:44:59Z) - A Safe Genetic Algorithm Approach for Energy Efficient Federated
Learning in Wireless Communication Networks [53.561797148529664]
フェデレートラーニング(FL)は、従来の集中型アプローチとは対照的に、デバイスが協調的にモデルトレーニングを行う分散技術として登場した。
FLの既存の取り組みにもかかわらず、その環境影響は、無線ネットワークへの適用性に関するいくつかの重要な課題が特定されているため、まだ調査中である。
現在の研究は遺伝的アルゴリズム(GA)アプローチを提案しており、FLプロセス全体のエネルギー消費と不要な資源利用の両方を最小化することを目標としている。
論文 参考訳(メタデータ) (2023-06-25T13:10:38Z) - On the Design of Communication-Efficient Federated Learning for Health
Monitoring [21.433739206682404]
本稿では,クライアントクラスタリングと伝達学習を含む通信効率のよいフェデレーション学習(CEFL)フレームワークを提案する。
CEFLは従来のFLと比較して、通信コストを最大98.45%削減でき、精度損失は3%未満である。
論文 参考訳(メタデータ) (2022-11-30T12:52:23Z) - Federated Learning over Wireless IoT Networks with Optimized
Communication and Resources [98.18365881575805]
協調学習技術のパラダイムとしてのフェデレートラーニング(FL)は研究の注目を集めている。
無線システム上での高速応答および高精度FLスキームの検証が重要である。
提案する通信効率のよいフェデレーション学習フレームワークは,強い線形速度で収束することを示す。
論文 参考訳(メタデータ) (2021-10-22T13:25:57Z) - Decentralized Federated Learning: Balancing Communication and Computing
Costs [21.694468026280806]
分散統合学習(DFL)は分散機械学習の強力なフレームワークである。
本稿では,コミュニケーション効率と収束性能のバランスをとるための汎用的な分散化フェデレーション学習フレームワークを提案する。
MNISTとCIFAR-10データセットに基づく実験結果は、従来の分散SGD法よりもDFLの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-26T09:09:45Z) - Communication-Efficient Hierarchical Federated Learning for IoT
Heterogeneous Systems with Imbalanced Data [42.26599494940002]
フェデレートラーニング(Federated Learning, FL)は、複数のノードが協調してディープラーニングモデルをトレーニングできる分散ラーニング方法論である。
本稿では,IoTヘテロジニアスシステムにおける階層FLの可能性について検討する。
複数のエッジノード上でのユーザ割り当てとリソース割り当てに最適化されたソリューションを提案する。
論文 参考訳(メタデータ) (2021-07-14T08:32:39Z) - A Framework for Energy and Carbon Footprint Analysis of Distributed and
Federated Edge Learning [48.63610479916003]
本稿では,分散学習政策の環境フットプリントに影響を与える要因を概説し,分析する。
バニラとコンセンサスによって駆動される分散FLポリシーの両方をモデル化する。
その結果、flは低ビット/ジュール効率を特徴とするワイヤレスシステムにおいて、顕著なエンドツーエンドの省エネ(30%-40%)が可能となった。
論文 参考訳(メタデータ) (2021-03-18T16:04:42Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。