論文の概要: Communication-Efficient and Interoperable Distributed Learning
- arxiv url: http://arxiv.org/abs/2509.22823v1
- Date: Fri, 26 Sep 2025 18:30:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:18.892927
- Title: Communication-Efficient and Interoperable Distributed Learning
- Title(参考訳): コミュニケーション効率と相互運用可能な分散学習
- Authors: Mounssif Krouka, Mehdi Bennis,
- Abstract要約: 不均一なモデルアーキテクチャをまたいだ協調学習は、相互運用性の確保とプライバシの保護において大きな課題となる。
モデルの不均一性をサポートし,推論時のモジュール構成を可能にする通信効率のよい分散学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 27.136816067758215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative learning across heterogeneous model architectures presents significant challenges in ensuring interoperability and preserving privacy. We propose a communication-efficient distributed learning framework that supports model heterogeneity and enables modular composition during inference. To facilitate interoperability, all clients adopt a common fusion-layer output dimension, which permits each model to be partitioned into a personalized base block and a generalized modular block. Clients share their fusion-layer outputs, keeping model parameters and architectures private. Experimental results demonstrate that the framework achieves superior communication efficiency compared to federated learning (FL) and federated split learning (FSL) baselines, while ensuring stable training performance across heterogeneous architectures.
- Abstract(参考訳): 不均一なモデルアーキテクチャをまたいだ協調学習は、相互運用性の確保とプライバシの保護において大きな課題となる。
モデルの不均一性をサポートし,推論時のモジュール構成を可能にする通信効率のよい分散学習フレームワークを提案する。
相互運用を容易にするため、すべてのクライアントは共通の融合層出力ディメンションを採用し、各モデルをパーソナライズされたベースブロックと一般化されたモジュールブロックに分割することができる。
クライアントは融合層出力を共有し、モデルパラメータとアーキテクチャをプライベートにする。
実験結果から,このフレームワークは,フェデレーションドラーニング(FL)やフェデレーションドスプリットラーニング(FSL)のベースラインよりも優れた通信効率を実現し,異種アーキテクチャ間の安定したトレーニング性能を確保した。
関連論文リスト
- FedADP: Unified Model Aggregation for Federated Learning with Heterogeneous Model Architectures [5.348839333572149]
従来のフェデレートラーニング(FL)は、特に異種環境において、効率と正確性の観点から大きな課題に直面しています。
集約中のモデルアーキテクチャを動的に調整することでクライアントの不均一性に適応するフェデレート学習フレームワークであるFedADPを提案する。
実験の結果,FedADP は FlexiFed などの既存手法を著しく上回り,最大 23.30% の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-10T02:57:07Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - Balancing Similarity and Complementarity for Federated Learning [91.65503655796603]
フェデレートラーニング(FL)は、モバイルとIoTシステムにおいてますます重要になっている。
FLの重要な課題の1つは、非i.d.データのような統計的不均一性を管理することである。
FL協調における類似性と相補性のバランスをとる新しいフレームワークである texttFedSaC を導入する。
論文 参考訳(メタデータ) (2024-05-16T08:16:19Z) - ARIA: On the Interaction Between Architectures, Initialization and
Aggregation Methods for Federated Visual Classification [1.4585326585979703]
第1回ARchitecture-Initialization-Aggregation study and benchmark ARIAs across a range of medical image classification task。
私たちは、現在のプラクティスとは違って、最高のパフォーマンスを達成するために、ARIA要素を一緒に選択する必要があることに気付きました。
結果から,タスク,正規化レイヤの効果,SSL事前トレーニングの有用性などによって,各要素の適切な選択が明らかになった。
論文 参考訳(メタデータ) (2023-11-24T17:40:31Z) - Heterogeneous Ensemble Knowledge Transfer for Training Large Models in
Federated Learning [22.310090483499035]
フェデレートラーニング(FL)は、エッジデバイスがプライベートデータを中央集約サーバに公開することなく、協調的にモデルを学習することを可能にする。
既存のFLアルゴリズムの多くは、クライアントとサーバにまたがってデプロイされるのと同じアーキテクチャのモデルを必要とする。
本稿では,Fed-ETと呼ばれる新しいアンサンブル知識伝達手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T05:18:32Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Coordination Among Neural Modules Through a Shared Global Workspace [78.08062292790109]
認知科学において、機能的に特殊なコンポーネントが情報を共有するグローバルなワークスペースアーキテクチャが提案されている。
キャパシティ制限は、特殊化と構成性を奨励する合理的な基礎を持つことを示す。
論文 参考訳(メタデータ) (2021-03-01T18:43:48Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - HeteroFL: Computation and Communication Efficient Federated Learning for
Heterogeneous Clients [42.365530133003816]
我々は,全く異なる計算能力と通信能力を備えた異種クライアントに対応するために,HeteroFLという新しいフェデレーション学習フレームワークを提案する。
我々の解は、様々な複雑さを持つ異種局所モデルの訓練を可能にする。
クライアントの能力に応じてデータを適応的に分散することは、計算と通信の効率が良いことを示す。
論文 参考訳(メタデータ) (2020-10-03T02:55:33Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。