論文の概要: Robust Learning Protocol for Federated Tumor Segmentation Challenge
- arxiv url: http://arxiv.org/abs/2212.08290v1
- Date: Fri, 16 Dec 2022 05:51:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 14:45:43.528961
- Title: Robust Learning Protocol for Federated Tumor Segmentation Challenge
- Title(参考訳): Federated tumor Segmentation Challengeのためのロバスト学習プロトコル
- Authors: Ambrish Rawat, Giulio Zizzo, Swanand Kadhe, Jonathan P. Epperlein,
Stefano Braghin
- Abstract要約: フェデレーテッド・腫瘍・チャレンジ(FeTS 2022)のためのフェデレーテッド・ラーニング・プロセスの組織化のための堅牢で効率的な学習プロトコルを考案する。
このような課題に対処するために,サーバサイド適応最適化(サーバサイドAdam)とジャディディクスパラメータ(重み付け)アグリゲーションスキームを組み合わせたロバスト学習プロトコル(RoLePRO)を提案する。
- 参考スコア(独自算出の注目度): 8.345949747779388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we devise robust and efficient learning protocols for
orchestrating a Federated Learning (FL) process for the Federated Tumor
Segmentation Challenge (FeTS 2022). Enabling FL for FeTS setup is challenging
mainly due to data heterogeneity among collaborators and communication cost of
training. To tackle these challenges, we propose Robust Learning Protocol
(RoLePRO) which is a combination of server-side adaptive optimisation (e.g.,
server-side Adam) and judicious parameter (weights) aggregation schemes (e.g.,
adaptive weighted aggregation). RoLePRO takes a two-phase approach, where the
first phase consists of vanilla Federated Averaging, while the second phase
consists of a judicious aggregation scheme that uses a sophisticated
reweighting, all in the presence of an adaptive optimisation algorithm at the
server. We draw insights from extensive experimentation to tune learning rates
for the two phases.
- Abstract(参考訳): 本研究では,FeTS 2022(Feerated tumor Segmentation Challenge)のためのFL(Feerated Learning)プロセスのオーケストレーションのための,堅牢で効率的な学習プロトコルを考案した。
FeTSセットアップのためのFLの導入は、主にコラボレータ間のデータ不均一性と訓練の通信コストによって困難である。
これらの課題に取り組むために,サーバサイド適応最適化(サーバサイドアダムなど)と,重み付きパラメータ(重み付け)集約スキーム(例えば適応重み付け集約)を組み合わせたロバスト学習プロトコル(rolepro)を提案する。
RoLePROは、第1フェーズがバニラフェデレーション平均化(Vanilla Federated Averaging)で構成され、第2フェーズは、サーバに適応最適化アルゴリズムが存在するという、洗練された再重み付け(reweighting)を使用する司法集約スキームで構成されている。
2つのフェーズの学習率を調整するために、広範な実験から洞察を引き出す。
関連論文リスト
- A-FedPD: Aligning Dual-Drift is All Federated Primal-Dual Learning Needs [57.35402286842029]
本稿では,グローバルクライアントとローカルクライアントの仮想二重配向を構成する新しいアラインドデュアルデュアル(A-FedPD)手法を提案する。
本稿では,A-FedPD方式の非集中型セキュリティコンセンサスに対する効率を包括的に分析する。
論文 参考訳(メタデータ) (2024-09-27T17:00:32Z) - Parameterizing Federated Continual Learning for Reproducible Research [4.361568392115453]
複雑な学習シナリオをキャプチャし、エミュレートする実験的なベストプラクティスのセットを提案する。
私たちのフレームワークであるFreddieは、FCL(Federated Continual Learning)の最初の完全なフレームワークです。
我々は,CIFAR100におけるFreddieの大規模フェデレート学習と,FCLにおける異種タスクシーケンスの2つのユースケースにおける効果を実証した。
論文 参考訳(メタデータ) (2024-06-04T06:54:53Z) - Heterogeneous Federated Learning with Splited Language Model [22.65325348176366]
フェデレート・スプリット・ラーニング(FSL)は、実際には有望な分散学習パラダイムである。
本稿では,前訓練画像変換器(PIT)をFedVと呼ばれる初期モデルとして利用し,トレーニングプロセスの高速化とモデルロバスト性の向上を図る。
我々は、実世界のデータセット、異なる部分的デバイス参加、異種データ分割におけるPITを用いたFSL手法の体系的評価を初めて行った。
論文 参考訳(メタデータ) (2024-03-24T07:33:08Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - A Primal-Dual Algorithm for Hybrid Federated Learning [11.955062839855334]
Fenchel Dualityをベースとした,ハイブリット・フェデレーション・ラーニングのための高速で堅牢なアルゴリズムを提案する。
また、クライアントデータを保護するためのプライバシーの考慮と必要な手順も提供します。
論文 参考訳(メタデータ) (2022-10-14T21:02:04Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Federated Transfer Learning with Dynamic Gradient Aggregation [27.42998421786922]
本稿では,音響モデル学習のためのフェデレートラーニング(FL)シミュレーションプラットフォームを提案する。
提案するFLプラットフォームは,モジュール設計を取り入れたさまざまなタスクをサポートすることができる。
これは、収束速度と全体的なモデル性能の両方において、分散トレーニングの黄金標準よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:29:01Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Adaptive Federated Optimization [43.78438670284309]
フェデレートラーニングでは、多数のクライアントが中央サーバとコーディネートして、自身のデータを共有せずにモデルを学習する。
適応最適化手法は、このような問題に対処する際、顕著な成功を収めている。
適応型学習は,フェデレート学習の性能を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-29T16:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。