論文の概要: Federated Whole Prostate Segmentation in MRI with Personalized Neural
Architectures
- arxiv url: http://arxiv.org/abs/2107.08111v1
- Date: Fri, 16 Jul 2021 20:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-20 14:47:24.275020
- Title: Federated Whole Prostate Segmentation in MRI with Personalized Neural
Architectures
- Title(参考訳): パーソナライズされたニューラルアーキテクチャによるMRI前立腺分画
- Authors: Holger R. Roth, Dong Yang, Wenqi Li, Andriy Myronenko, Wentao Zhu,
Ziyue Xu, Xiaosong Wang, Daguang Xu
- Abstract要約: フェデレーション・ラーニング(FL)は、集中型データセットを必要とせずに機械学習モデルをトレーニングする手段である。
本研究では,FLと局所的ニューラルネットワーク探索に基づくAutoML技術を組み合わせた「スーパーネット」の学習を行う。
提案手法は3次元前立腺MRIの4つの異なるデータセットを用いて評価し,適応後の局所モデルの性能向上を示す。
- 参考スコア(独自算出の注目度): 11.563695244722613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building robust deep learning-based models requires diverse training data,
ideally from several sources. However, these datasets cannot be combined easily
because of patient privacy concerns or regulatory hurdles, especially if
medical data is involved. Federated learning (FL) is a way to train machine
learning models without the need for centralized datasets. Each FL client
trains on their local data while only sharing model parameters with a global
server that aggregates the parameters from all clients. At the same time, each
client's data can exhibit differences and inconsistencies due to the local
variation in the patient population, imaging equipment, and acquisition
protocols. Hence, the federated learned models should be able to adapt to the
local particularities of a client's data. In this work, we combine FL with an
AutoML technique based on local neural architecture search by training a
"supernet". Furthermore, we propose an adaptation scheme to allow for
personalized model architectures at each FL client's site. The proposed method
is evaluated on four different datasets from 3D prostate MRI and shown to
improve the local models' performance after adaptation through selecting an
optimal path through the AutoML supernet.
- Abstract(参考訳): 堅牢なディープラーニングベースのモデルの構築には、さまざまなトレーニングデータが必要である。
しかし、これらのデータセットは患者のプライバシー上の懸念や規制上のハードルのために簡単に組み合わせることができない。
Federated Learning(FL)は、集中型データセットを必要とせずに機械学習モデルをトレーニングする手段である。
各flクライアントは、すべてのクライアントからパラメータを集約するグローバルサーバとモデルパラメータのみを共有しながら、ローカルデータをトレーニングする。
同時に、各クライアントのデータは、患者数、撮像装置、取得プロトコルの局所的な変化により、差異や矛盾を示すことができる。
したがって、連合学習モデルは、クライアントのデータの局所的特異性に適応できるべきである。
本研究では, fl と局所的ニューラルネットワーク探索に基づく automl 技術を組み合わせた「スーパーネット」の学習を行う。
さらに,各FLクライアントのサイトでパーソナライズされたモデルアーキテクチャを実現するための適応方式を提案する。
提案手法は3次元前立腺MRIの4つの異なるデータセットを用いて評価し,AutoMLスーパーネットを通した最適経路を選択することにより,適応後の局所モデルの性能を向上させることを示した。
関連論文リスト
- Multi-Level Additive Modeling for Structured Non-IID Federated Learning [54.53672323071204]
我々は、異種クライアント間のより良い知識共有のために、マルチレベル付加モデル(MAM)と呼ばれるマルチレベル構造で編成されたモデルを訓練する。
フェデレートMAM(FeMAM)では、各クライアントは各レベル毎に少なくとも1つのモデルに割り当てられ、そのパーソナライズされた予測は、各レベルに割り当てられたモデルの出力を合計する。
実験により、FeMAMは既存のクラスタリングFLおよびパーソナライズされたFLメソッドを様々な非IID設定で超越していることが示された。
論文 参考訳(メタデータ) (2024-05-26T07:54:53Z) - FAM: fast adaptive federated meta-learning [10.980548731600116]
単一グローバルモデルの協調学習のための高速適応型メタラーニング(FAM)フレームワークを提案する。
スケルトンネットワークは各クライアントで成長し、ローカルデータから追加のクライアント固有のパラメータを学習することでパーソナライズされたモデルをトレーニングする。
パーソナライズされたクライアントモデルは、ローカルにトレーニングされたモデルよりも優れ、FAMメカニズムの有効性を実証した。
論文 参考訳(メタデータ) (2023-08-26T22:54:45Z) - Personalized Federated Learning with Multi-branch Architecture [0.0]
フェデレートラーニング(FL)は、複数のクライアントが相互に生データを公開することなく、協力的にモデルをトレーニングすることを可能にする。
ニューラルネットワークの各レイヤを複数のブランチに分割し,各ブランチにクライアント固有の重みを割り当てることで,パーソナライズを実現するマルチブランチアーキテクチャを用いた新しいPFL手法(pFedMB)を提案する。
CIFAR10およびCIFAR100データセットを用いて,pFedMBが最先端のPFL法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-11-15T06:30:57Z) - IOP-FL: Inside-Outside Personalization for Federated Medical Image
Segmentation [18.65229252289727]
フェデレートラーニング(Federated Learning)は、複数の医療機関がクライアントデータを集中せずにグローバルなモデルを共同で学習することを可能にする。
We propose a novel unified framework for textitInside and Outside model Personalization in FL (IOP-FL)。
2つの医用画像分割作業に関する実験結果から, 内面および外面の個人化におけるSOTA法よりも有意な改善が認められた。
論文 参考訳(メタデータ) (2022-04-16T08:26:19Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Personalized Federated Learning through Local Memorization [10.925242558525683]
フェデレーション学習により、クライアントはデータをローカルに保ちながら、統計的モデルを協調的に学習することができる。
最近のパーソナライズされた学習方法は、他のクライアントで利用可能な知識を活用しながら、各クライアントに対して別々のモデルを訓練する。
本稿では,この手法が最先端手法よりも精度と公平性を著しく向上することを示す。
論文 参考訳(メタデータ) (2021-11-17T19:40:07Z) - Personalized Retrogress-Resilient Framework for Real-World Medical
Federated Learning [8.240098954377794]
本稿では,各クライアントに対して優れたパーソナライズモデルを生成するために,パーソナライズされた回帰耐性フレームワークを提案する。
実世界の皮膚内視鏡的FLデータセットに関する実験により、我々のパーソナライズされた回帰抵抗性フレームワークが最先端のFL手法より優れていることが証明された。
論文 参考訳(メタデータ) (2021-10-01T13:24:29Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Personalized Federated Learning with First Order Model Optimization [76.81546598985159]
そこで我々は,各クライアントが他のクライアントと連携して,クライアント固有の目的ごとのより強力なモデルを得る,フェデレーション学習の代替案を提案する。
基礎となるデータ分布やクライアントの類似性に関する知識を前提とせず、各クライアントが関心のある任意のターゲット分布を最適化できるようにします。
この手法は既存の代替品を上回り、ローカルデータ配信以外の転送のようなパーソナライズされたFLの新機能を可能にする。
論文 参考訳(メタデータ) (2020-12-15T19:30:29Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。