論文の概要: Smart Split-Federated Learning over Noisy Channels for Embryo Image Segmentation
- arxiv url: http://arxiv.org/abs/2601.18948v1
- Date: Mon, 26 Jan 2026 20:40:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.063232
- Title: Smart Split-Federated Learning over Noisy Channels for Embryo Image Segmentation
- Title(参考訳): 胚画像分割のための雑音チャネルを用いたスマートスプリットフェデレーション学習
- Authors: Zahra Hafezi Kafshgari, Ivan V. Bajic, Parvaneh Saeedi,
- Abstract要約: SplitFederated (SplitFed) 学習は,クライアントコンピューティングインフラストラクチャに最小限の要件を置くフェデレーション学習の拡張である。
SplitFed学習では、機能値、勾配更新、モデル更新が通信チャネル間で転送される。
本研究では、チャネルノイズに対するレジリエンスを改善することを目的として、SplitFed学習のためのスマート平均化戦略を提案する。
- 参考スコア(独自算出の注目度): 15.781967961474834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split-Federated (SplitFed) learning is an extension of federated learning that places minimal requirements on the clients computing infrastructure, since only a small portion of the overall model is deployed on the clients hardware. In SplitFed learning, feature values, gradient updates, and model updates are transferred across communication channels. In this paper, we study the effects of noise in the communication channels on the learning process and the quality of the final model. We propose a smart averaging strategy for SplitFed learning with the goal of improving resilience against channel noise. Experiments on a segmentation model for embryo images shows that the proposed smart averaging strategy is able to tolerate two orders of magnitude stronger noise in the communication channels compared to conventional averaging, while still maintaining the accuracy of the final model.
- Abstract(参考訳): Split-Federated (SplitFed) ラーニングは、クライアントのコンピューティングインフラに最小限の要件を課すフェデレート学習の拡張である。
SplitFed学習では、機能値、勾配更新、モデル更新が通信チャネル間で転送される。
本稿では,通信路の雑音が学習過程および最終モデルの品質に及ぼす影響について検討する。
本研究では、チャネルノイズに対するレジリエンスを改善することを目的として、SplitFed学習のためのスマート平均化戦略を提案する。
胚画像のセグメンテーションモデルを用いた実験により,提案したスマート平均化戦略は,従来の平均化よりも通信チャネルの2桁の強いノイズを許容できるが,最終的なモデルの精度は維持できることがわかった。
関連論文リスト
- Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Diffusion Models for Accurate Channel Distribution Generation [19.80498913496519]
強力な生成モデルはチャネル分布を正確に学習することができる。
これにより、チャネルの物理的測定の繰り返しコストを削減できる。
結果として得られる差別化チャネルモデルは、勾配ベースの最適化を可能にすることにより、ニューラルエンコーダのトレーニングをサポートする。
論文 参考訳(メタデータ) (2023-09-19T10:35:54Z) - Channel and Gradient-Importance Aware Device Scheduling for Over-the-Air
Federated Learning [31.966999085992505]
フェデレートラーニング(Federated Learning、FL)は、プライバシ保護のための分散トレーニングスキームである。
チャネルノイズ歪みの負の影響を緩和するために,PO-FL というオーバー・ザ・エア FL のための機器スケジューリングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-26T12:04:59Z) - Fundamental Limits of Communication Efficiency for Model Aggregation in
Distributed Learning: A Rate-Distortion Approach [54.311495894129585]
本研究では,分散学習におけるモデルアグリゲーションの通信コストの限界について,速度歪みの観点から検討する。
SignSGDでは,ワーカノード間の相関を利用した通信利得が重要であることがわかった。
論文 参考訳(メタデータ) (2022-06-28T13:10:40Z) - Self-Supervised Learning for speech recognition with Intermediate layer
supervision [52.93758711230248]
自己教師付き学習(ILS-SSL)のための中間層スーパービジョンを提案する。
ILS-SSLは、中間層にSSL損失を追加することで、可能な限りコンテンツ情報に集中させます。
LibriSpeech の他のテストセットの実験により,本手法は HuBERT を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T10:45:05Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Communication-Efficient Federated Learning with Dual-Side Low-Rank
Compression [8.353152693578151]
Federated Learning(FL)は、クライアントの生データを共有せずにディープラーニングモデルをトレーニングするための有望で強力なアプローチです。
両サイドローランク圧縮(FedDLR)を用いたフェデレーションラーニングと呼ばれる新しいトレーニング手法を提案する。
我々は,FedDLRがコミュニケーションと効率の両面で最先端のソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-04-26T09:13:31Z) - Speaker Representation Learning using Global Context Guided Channel and
Time-Frequency Transformations [67.18006078950337]
グローバルな文脈情報を用いて、重要なチャネルを強化し、有意義な時間周波数位置を再検討する。
提案されたモジュールは、人気のあるResNetベースのモデルとともに、VoxCeleb1データセットで評価される。
論文 参考訳(メタデータ) (2020-09-02T01:07:29Z) - Channel Interaction Networks for Fine-Grained Image Categorization [61.095320862647476]
微妙なクラス間差のため、きめ細かい画像分類は困難である。
本稿では,チャネル・インタラクション・ネットワーク(CIN)を提案する。
我々のモデルは、多段階のトレーニングやテストを必要とせずに、エンドツーエンドで効率的にトレーニングすることができる。
論文 参考訳(メタデータ) (2020-03-11T11:51:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。