論文の概要: Federated Continual 3D Segmentation With Single-round Communication
- arxiv url: http://arxiv.org/abs/2503.15414v1
- Date: Wed, 19 Mar 2025 16:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:22:16.326985
- Title: Federated Continual 3D Segmentation With Single-round Communication
- Title(参考訳): 単体通信による連続3次元分割
- Authors: Can Peng, Qianhui Men, Pramit Saha, Qianye Yang, Cheng Ouyang, J. Alison Noble,
- Abstract要約: フェデレートラーニングは、ローカルデータのプライバシーを維持しながら、分散クライアント間のコラボレーションを促進することを目指している。
このような動的フェデレートされた分析設定では、従来のフェデレートされた通信ラウンドごとのモデルアグリゲーションの通信戦略が最適以下である。
本稿では,マルチモデル蒸留を通じてサーバに1回モデルアグリゲーションを適用した連立連続学習戦略を提案する。
- 参考スコア(独自算出の注目度): 8.95113819926435
- License:
- Abstract: Federated learning seeks to foster collaboration among distributed clients while preserving the privacy of their local data. Traditionally, federated learning methods assume a fixed setting in which client data and learning objectives remain constant. However, in real-world scenarios, new clients may join, and existing clients may expand the segmentation label set as task requirements evolve. In such a dynamic federated analysis setup, the conventional federated communication strategy of model aggregation per communication round is suboptimal. As new clients join, this strategy requires retraining, linearly increasing communication and computation overhead. It also imposes requirements for synchronized communication, which is difficult to achieve among distributed clients. In this paper, we propose a federated continual learning strategy that employs a one-time model aggregation at the server through multi-model distillation. This approach builds and updates the global model while eliminating the need for frequent server communication. When integrating new data streams or onboarding new clients, this approach efficiently reuses previous client models, avoiding the need to retrain the global model across the entire federation. By minimizing communication load and bypassing the need to put unchanged clients online, our approach relaxes synchronization requirements among clients, providing an efficient and scalable federated analysis framework suited for real-world applications. Using multi-class 3D abdominal CT segmentation as an application task, we demonstrate the effectiveness of the proposed approach.
- Abstract(参考訳): フェデレートラーニングは、ローカルデータのプライバシーを維持しながら、分散クライアント間のコラボレーションを促進することを目指している。
伝統的に、フェデレートされた学習方法は、クライアントデータと学習目標が一定である固定された設定を前提としています。
しかし、現実のシナリオでは、新しいクライアントが加わり、既存のクライアントはタスク要求が進化するにつれてセグメンテーションラベルを拡大する可能性がある。
このような動的フェデレートされた分析設定では、通信ラウンド当たりのモデルアグリゲーションの従来のフェデレートされた通信戦略が最適以下である。
新しいクライアントが加わると、この戦略は再トレーニングを必要とし、通信と計算のオーバーヘッドを線形に増加させます。
また、分散クライアント間では達成が難しい同期通信の要求も課している。
本稿では,マルチモデル蒸留を通じてサーバに1回モデルアグリゲーションを適用した連立連続学習戦略を提案する。
このアプローチは、頻繁なサーバ通信の必要性を排除しながら、グローバルモデルを構築し、更新する。
新しいデータストリームの統合や新しいクライアントの導入では、従来のクライアントモデルを効率的に再利用し、フェデレーション全体にわたってグローバルモデルを再トレーニングする必要がなくなる。
通信負荷を最小化し、変更のないクライアントをオンラインで配置する必要をなくすことで、クライアント間の同期要求を緩和し、現実世界のアプリケーションに適した効率的でスケーラブルなフェデレーション分析フレームワークを提供する。
マルチクラス3次元腹部CTセグメント化を応用課題として,提案手法の有効性を実証する。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - FAM: fast adaptive federated meta-learning [10.980548731600116]
単一グローバルモデルの協調学習のための高速適応型メタラーニング(FAM)フレームワークを提案する。
スケルトンネットワークは各クライアントで成長し、ローカルデータから追加のクライアント固有のパラメータを学習することでパーソナライズされたモデルをトレーニングする。
パーソナライズされたクライアントモデルは、ローカルにトレーニングされたモデルよりも優れ、FAMメカニズムの有効性を実証した。
論文 参考訳(メタデータ) (2023-08-26T22:54:45Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FedNet2Net: Saving Communication and Computations in Federated Learning
with Model Growing [0.0]
フェデレート・ラーニング(Federated Learning, FL)は、最近開発された機械学習の分野である。
本稿では「モデル成長」の概念に基づく新しいスキームを提案する。
提案手法は3つの標準ベンチマークで広範囲に検証され、通信とクライアントの計算の大幅な削減を実現することが示されている。
論文 参考訳(メタデータ) (2022-07-19T21:54:53Z) - FedKD: Communication Efficient Federated Learning via Knowledge
Distillation [56.886414139084216]
フェデレーション学習は、分散データからインテリジェントモデルを学ぶために広く使用されている。
フェデレートラーニングでは、クライアントはモデルラーニングの各イテレーションでローカルモデルの更新を伝える必要がある。
本稿では,知識蒸留に基づくコミュニケーション効率のよいフェデレーション学習手法を提案する。
論文 参考訳(メタデータ) (2021-08-30T15:39:54Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Federated Reconstruction: Partially Local Federated Learning [4.41216624715087]
フェデレート・レコンストラクション(Federated Reコンストラクション)は,大規模なトレーニングや推論に適した部分局所的なフェデレーション・ラーニングのための,最初のモデルに依存しないフレームワークである。
我々は、協調フィルタリングと次の単語予測のための既存のアプローチに対して、その性能を実証的に実証した。
モバイルキーボードアプリケーションにおけるフェデレートされた協調フィルタリングのために,このアプローチを大規模に展開する成功例について述べる。
論文 参考訳(メタデータ) (2021-02-05T23:33:43Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Communication-Efficient Federated Learning via Optimal Client Sampling [20.757477553095637]
フェデレートラーニング(FL)は、中央サーバが多くのクライアントに分散したデータから学習をコーディネートする設定におけるプライバシー上の懸念を改善する。
本稿では,コミュニケーション制約のある環境において,新しい,シンプルで効率的な中央モデルを更新する方法を提案する。
我々は,ロジスティック回帰のための合成データセットと2つのFLベンチマーク,すなわちEMNISTの分類タスクと現実的な言語モデリングタスクを用いて,このポリシーを検証した。
論文 参考訳(メタデータ) (2020-07-30T02:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。