論文の概要: Mind the Gap: Federated Learning Broadens Domain Generalization in
Diagnostic AI Models
- arxiv url: http://arxiv.org/abs/2310.00757v2
- Date: Tue, 19 Dec 2023 13:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 22:48:31.878510
- Title: Mind the Gap: Federated Learning Broadens Domain Generalization in
Diagnostic AI Models
- Title(参考訳): Mind the Gap: 診断AIモデルにおけるドメインの一般化を広めるフェデレーションラーニング
- Authors: Soroosh Tayebi Arasteh, Christiane Kuhl, Marwin-Jonathan Saehn, Peter
Isfort, Daniel Truhn, Sven Nebelung
- Abstract要約: 5施設の胸部X線写真610,000点を用いて, 診断成績を訓練戦略の機能として評価した。
大規模データセットはFLで最小のパフォーマンス向上を示したが、いくつかのケースでは低下を見せた。
さまざまな外部機関間で協調的にトレーニングを行う場合、AIモデルは、ドメイン外のタスクのためにローカルにトレーニングされたモデルを一貫して上回った。
- 参考スコア(独自算出の注目度): 2.192472845284658
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Developing robust artificial intelligence (AI) models that generalize well to
unseen datasets is challenging and usually requires large and variable
datasets, preferably from multiple institutions. In federated learning (FL), a
model is trained collaboratively at numerous sites that hold local datasets
without exchanging them. So far, the impact of training strategy, i.e., local
versus collaborative, on the diagnostic on-domain and off-domain performance of
AI models interpreting chest radiographs has not been assessed. Consequently,
using 610,000 chest radiographs from five institutions across the globe, we
assessed diagnostic performance as a function of training strategy (i.e., local
vs. collaborative), network architecture (i.e., convolutional vs.
transformer-based), generalization performance (i.e., on-domain vs.
off-domain), imaging finding (i.e., cardiomegaly, pleural effusion, pneumonia,
atelectasis, consolidation, pneumothorax, and no abnormality), dataset size
(i.e., from n=18,000 to 213,921 radiographs), and dataset diversity. Large
datasets not only showed minimal performance gains with FL but, in some
instances, even exhibited decreases. In contrast, smaller datasets revealed
marked improvements. Thus, on-domain performance was mainly driven by training
data size. However, off-domain performance leaned more on training diversity.
When trained collaboratively across diverse external institutions, AI models
consistently surpassed models trained locally for off-domain tasks, emphasizing
FL's potential in leveraging data diversity. In conclusion, FL can bolster
diagnostic privacy, reproducibility, and off-domain reliability of AI models
and, potentially, optimize healthcare outcomes.
- Abstract(参考訳): 目に見えないデータセットに適切に一般化する堅牢な人工知能(AI)モデルの開発は困難であり、通常は大規模で可変なデータセットを必要とする。
フェデレーション学習(fl)では、モデルを交換せずにローカルデータセットを保持する多数のサイトで協調的にトレーニングする。
これまでのところ、胸部ラジオグラフィーを解釈するAIモデルのドメイン内診断とドメイン外性能に対するトレーニング戦略、すなわち局所的対協調的効果は評価されていない。
Consequently, using 610,000 chest radiographs from five institutions across the globe, we assessed diagnostic performance as a function of training strategy (i.e., local vs. collaborative), network architecture (i.e., convolutional vs. transformer-based), generalization performance (i.e., on-domain vs. off-domain), imaging finding (i.e., cardiomegaly, pleural effusion, pneumonia, atelectasis, consolidation, pneumothorax, and no abnormality), dataset size (i.e., from n=18,000 to 213,921 radiographs), and dataset diversity.
大規模なデータセットでは、flのパフォーマンスが最小限に向上するだけでなく、場合によっては低下も見られた。
対照的に、小さなデータセットでは顕著な改善が見られた。
したがって、オンドメインのパフォーマンスは主にデータサイズのトレーニングによって決まる。
しかし、ドメイン外のパフォーマンスはトレーニングの多様性により依存した。
さまざまな外部機関間で協調的にトレーニングされた場合、aiモデルは一貫してドメイン外のタスクのためにローカルにトレーニングされたモデルを超え、データ多様性を活用するflの可能性を強調した。
結論として、flは診断のプライバシ、再現性、aiモデルのドメイン外の信頼性、そして潜在的に医療結果の最適化を促進することができる。
関連論文リスト
- FedGS: Federated Gradient Scaling for Heterogeneous Medical Image Segmentation [0.4499833362998489]
そこで本研究では,FedGSという新しいFLアグリゲーション手法を提案する。
FedGSは、特に小さな病変に対して、PolypGenとLiTSデータセット間で、FedAvgよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-21T15:26:21Z) - Federated Meta-Learning for Few-Shot Fault Diagnosis with Representation
Encoding [21.76802204235636]
本稿では,数発の故障診断のための表現符号化ベースフェデレーションメタラーニング(REFML)を提案する。
REFMLは、トレーニングクライアントの固有の一般化を活用して、効果的に、アウト・オブ・ディストリビューションの利点に変換する。
同じ機器の非表示作業条件でテストすると2.17%-6.50%、全く見えない機器でテストすると13.44%-18.33%の精度で精度が向上する。
論文 参考訳(メタデータ) (2023-10-13T10:48:28Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Domain Adaptation Principal Component Analysis: base linear method for
learning with out-of-distribution data [55.41644538483948]
ドメイン適応は現代の機械学習において一般的なパラダイムである。
ドメイン適応主成分分析(DAPCA)という手法を提案する。
DAPCAは、領域適応タスクの解決に有用な線形化データ表現を見つける。
論文 参考訳(メタデータ) (2022-08-28T21:10:56Z) - A Domain Generalization Approach for Out-Of-Distribution 12-lead ECG
Classification with Convolutional Neural Networks [3.1372269816123994]
本稿では,12誘導心電図(ECG)の異常を,Deep Neural Networkのアーキテクチャ全体にわたって抽出した情報を活用することによって分類する手法を提案する。
我々は4つのソースから利用可能なECGデータセットを採用し、それらを別々のドメインとして扱う。
実世界の環境における分布シフトをシミュレートするために、ドメインのサブセット上でモデルをトレーニングし、残りのドメインを除外する。
論文 参考訳(メタデータ) (2022-08-20T10:58:31Z) - FedILC: Weighted Geometric Mean and Invariant Gradient Covariance for
Federated Learning on Non-IID Data [69.0785021613868]
フェデレートラーニング(Federated Learning)とは、ローカルに計算されたパラメータの更新を、空間的に分散されたクライアントサイロからトレーニングデータに集約することで、共有サーバモデルによる学習を可能にする分散機械学習アプローチである。
本研究では, 勾配の共分散とヘッセンの幾何学的平均を利用して, シロ間およびシロ内成分の両方を捕捉するフェデレート不変学習一貫性(FedILC)アプローチを提案する。
これは医療、コンピュータビジョン、IoT(Internet of Things)といった様々な分野に関係している。
論文 参考訳(メタデータ) (2022-05-19T03:32:03Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - Hyperparameter-free Continuous Learning for Domain Classification in
Natural Language Understanding [60.226644697970116]
ドメイン分類は自然言語理解(NLU)の基本課題である
既存の継続的な学習アプローチの多くは、低い精度とパフォーマンスの変動に悩まされている。
本研究では,テキストデータに対するパラメータフリー連続学習モデルを提案する。
論文 参考訳(メタデータ) (2022-01-05T02:46:16Z) - Quasi-Global Momentum: Accelerating Decentralized Deep Learning on
Heterogeneous Data [77.88594632644347]
ディープラーニングモデルの分散トレーニングは、ネットワーク上でデータプライバシとデバイス上での学習を可能にする重要な要素である。
現実的な学習シナリオでは、異なるクライアントのローカルデータセットに異質性が存在することが最適化の課題となる。
本稿では,この分散学習の難しさを軽減するために,運動量に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2021-02-09T11:27:14Z) - Dynamic Federated Learning [57.14673504239551]
フェデレートラーニング(Federated Learning)は、マルチエージェント環境における集中的なコーディネーション戦略の包括的用語として登場した。
我々は、各イテレーションにおいて、利用可能なエージェントのランダムなサブセットがそのデータに基づいてローカル更新を実行する、フェデレートされた学習モデルを考える。
集約最適化問題に対する真の最小化器上の非定常ランダムウォークモデルの下で、アーキテクチャの性能は、各エージェントにおけるデータ変動率、各エージェントにおけるモデル変動率、アルゴリズムの学習率に逆比例する追跡項の3つの要因によって決定されることを示す。
論文 参考訳(メタデータ) (2020-02-20T15:00:54Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。