論文の概要: IOP-FL: Inside-Outside Personalization for Federated Medical Image
Segmentation
- arxiv url: http://arxiv.org/abs/2204.08467v2
- Date: Wed, 29 Mar 2023 07:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 19:11:09.780519
- Title: IOP-FL: Inside-Outside Personalization for Federated Medical Image
Segmentation
- Title(参考訳): IOP-FL:Federated Medical Image Segmentationの内面パーソナライゼーション
- Authors: Meirui Jiang, Hongzheng Yang, Chen Cheng, Qi Dou
- Abstract要約: フェデレートラーニング(Federated Learning)は、複数の医療機関がクライアントデータを集中せずにグローバルなモデルを共同で学習することを可能にする。
We propose a novel unified framework for textitInside and Outside model Personalization in FL (IOP-FL)。
2つの医用画像分割作業に関する実験結果から, 内面および外面の個人化におけるSOTA法よりも有意な改善が認められた。
- 参考スコア(独自算出の注目度): 18.65229252289727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows multiple medical institutions to
collaboratively learn a global model without centralizing client data. It is
difficult, if possible at all, for such a global model to commonly achieve
optimal performance for each individual client, due to the heterogeneity of
medical images from various scanners and patient demographics. This problem
becomes even more significant when deploying the global model to unseen clients
outside the FL with unseen distributions not presented during federated
training. To optimize the prediction accuracy of each individual client for
medical imaging tasks, we propose a novel unified framework for both
\textit{Inside and Outside model Personalization in FL} (IOP-FL). Our inside
personalization uses a lightweight gradient-based approach that exploits the
local adapted model for each client, by accumulating both the global gradients
for common knowledge and the local gradients for client-specific optimization.
Moreover, and importantly, the obtained local personalized models and the
global model can form a diverse and informative routing space to personalize an
adapted model for outside FL clients. Hence, we design a new test-time routing
scheme using the consistency loss with a shape constraint to dynamically
incorporate the models, given the distribution information conveyed by the test
data. Our extensive experimental results on two medical image segmentation
tasks present significant improvements over SOTA methods on both inside and
outside personalization, demonstrating the potential of our IOP-FL scheme for
clinical practice.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の医療機関がクライアントデータを集中せずにグローバルモデルを共同で学習することを可能にする。
様々なスキャナーや患者集団の医療画像の不均一性から,グローバルモデルが各クライアントに対して一般的に最適なパフォーマンスを達成することは,可能な限り困難である。
この問題は、フェデレートトレーニング中に提示されない未知の分布を持つFL外のクライアントにグローバルモデルをデプロイする場合、さらに重要になる。
医療画像タスクにおける各クライアントの予測精度を最適化するために, FL における \textit{inside と Outside model Personalization の両面に統一されたフレームワークを提案する。
内部のパーソナライゼーションでは、共通知識のグローバル勾配とクライアント固有の最適化のローカル勾配の両方を蓄積することにより、クライアント毎の局所的適応モデルを活用する軽量な勾配ベースアプローチを採用しています。
さらに、得られたローカルパーソナライズされたモデルとグローバルモデルが多様な情報ルーティング空間を形成し、外部FLクライアント向けに適応されたモデルをパーソナライズする。
そこで我々は,テストデータによって伝達される分布情報を考慮し,モデルを動的に組み込むための形状制約付き整合損失を用いた新しいテスト時間ルーティング方式を設計する。
2つの医用画像分割作業における広範囲な実験結果から,SOTA法よりも内面および外面のパーソナライゼーションが向上し,臨床実習におけるIOP-FL法の可能性が示された。
関連論文リスト
- MAP: Model Aggregation and Personalization in Federated Learning with Incomplete Classes [49.22075916259368]
一部の実世界のアプリケーションでは、データサンプルは通常、ローカルデバイスに分散される。
本稿では,クライアントが不完全なクラスを所有する特別なI.I.D.シーンに焦点を当てる。
提案するMAPアルゴリズムは,FLにおけるアグリゲーションとパーソナライゼーションの目標を同時に達成できる。
論文 参考訳(メタデータ) (2024-04-14T12:22:42Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - FedJETs: Efficient Just-In-Time Personalization with Federated Mixture
of Experts [48.78037006856208]
FedJETsは、Federated Learning(FL)セットアップ内でMixture-of-Experts(MoE)フレームワークを使用することで、新しいソリューションである。
我々の方法は、クライアントの多様性を活用して、クラスのサブセットの異なる専門家を訓練し、最も関係のある専門家に入力をルーティングするゲーティング機能を提供します。
我々の手法は、競争力のあるゼロショット性能を維持しながら、アートFL設定時の精度を最大18%向上させることができる。
論文 参考訳(メタデータ) (2023-06-14T15:47:52Z) - Visual Prompt Based Personalized Federated Learning [83.04104655903846]
pFedPTと呼ばれる画像分類タスクのための新しいPFLフレームワークを提案し、クライアントのローカルデータ配信情報を暗黙的に表現するためにパーソナライズされた視覚的プロンプトを利用する。
CIFAR10とCIFAR100データセットの実験では、pFedPTは様々な設定でいくつかの最先端(SOTA)PFLアルゴリズムより優れていた。
論文 参考訳(メタデータ) (2023-03-15T15:02:15Z) - Personalizing or Not: Dynamically Personalized Federated Learning with
Incentives [37.42347737911428]
個人データを共有せずにパーソナライズされたモデルを学習するためのパーソナライズド・フェデレーション・ラーニング(FL)を提案する。
パーソナライズレートは、パーソナライズされたモデルのトレーニングを希望する顧客の割合として測定され、フェデレーションされた設定に導入され、DyPFLを提案する。
この技術は、クライアントがローカルモデルをパーソナライズすることへのインセンティブを与えると同時に、より優れたパフォーマンスでグローバルモデルを採用できるようにする。
論文 参考訳(メタデータ) (2022-08-12T09:51:20Z) - Adapt to Adaptation: Learning Personalization for Cross-Silo Federated
Learning [6.0088002781256185]
従来のフェデレーション学習は、分散データによるクライアントのフェデレーションのためのグローバルモデルをトレーニングすることを目的としている。
非IIDデータセット間の分散シフトは、データヘテロジニティとしても知られ、この1つのグローバルモデルに適合するソリューションにしばしば挑戦する。
我々は、各クライアントが他のクライアントのモデルからどれだけの恩恵を受けることができるかを適応的に学習するパーソナライズされたクロスサイロFLフレームワークであるAPPLEを提案する。
論文 参考訳(メタデータ) (2021-10-15T22:23:14Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z) - Federated Whole Prostate Segmentation in MRI with Personalized Neural
Architectures [11.563695244722613]
フェデレーション・ラーニング(FL)は、集中型データセットを必要とせずに機械学習モデルをトレーニングする手段である。
本研究では,FLと局所的ニューラルネットワーク探索に基づくAutoML技術を組み合わせた「スーパーネット」の学習を行う。
提案手法は3次元前立腺MRIの4つの異なるデータセットを用いて評価し,適応後の局所モデルの性能向上を示す。
論文 参考訳(メタデータ) (2021-07-16T20:35:29Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。