論文の概要: Collaborative Training of Medical Artificial Intelligence Models with
non-uniform Labels
- arxiv url: http://arxiv.org/abs/2211.13606v1
- Date: Thu, 24 Nov 2022 13:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:44:11.478457
- Title: Collaborative Training of Medical Artificial Intelligence Models with
non-uniform Labels
- Title(参考訳): 非一様ラベルを用いた医用人工知能モデルの協調学習
- Authors: Soroosh Tayebi Arasteh, Peter Isfort, Marwin Saehn, Gustav
Mueller-Franzes, Firas Khader, Jakob Nikolas Kather, Christiane Kuhl, Sven
Nebelung, Daniel Truhn
- Abstract要約: 医用画像データの協調学習のためのフレキシブル・フェデレート・ラーニング(FFL)を提案する。
我々は、FFLで1つの大きなAIモデルをトレーニングするために、大きく、均一にラベル付けされたデータセットを使用することができることを示す。
これは、既存のすべてのデータを効率的に活用する真に大規模なAIモデルのトレーニングの道を開くかもしれない。
- 参考スコア(独自算出の注目度): 0.07176066267895696
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence (AI) methods are revolutionizing medical image
analysis. However, robust AI models require large multi-site datasets for
training. While multiple stakeholders have provided publicly available
datasets, the ways in which these data are labeled differ widely. For example,
one dataset of chest radiographs might contain labels denoting the presence of
metastases in the lung, while another dataset of chest radiograph might focus
on the presence of pneumonia. With conventional approaches, these data cannot
be used together to train a single AI model. We propose a new framework that we
call flexible federated learning (FFL) for collaborative training on such data.
Using publicly available data of 695,000 chest radiographs from five
institutions - each with differing labels - we demonstrate that large and
heterogeneously labeled datasets can be used to train one big AI model with
this framework. We find that models trained with FFL are superior to models
that are trained on matching annotations only. This may pave the way for
training of truly large-scale AI models that make efficient use of all existing
data.
- Abstract(参考訳): 人工知能(AI)の手法は医療画像分析に革命をもたらしている。
しかし、堅牢なAIモデルはトレーニングのために大規模なマルチサイトデータセットを必要とする。
複数のステークホルダが公開データセットを提供しているが、これらのデータのラベル付け方法は大きく異なる。
例えば、胸部x線撮影のデータセットには肺転移を示すラベルが含まれ、胸部x線撮影のデータセットには肺炎の存在に焦点が当てられる可能性がある。
従来のアプローチでは、これらのデータは単一のAIモデルをトレーニングするために併用することはできない。
我々は,このようなデータを用いた協調学習のためのフレキシブル・フェデレーション・ラーニング(FFL)と呼ばれる新しいフレームワークを提案する。
5つの機関の695,000の胸部X線写真(それぞれラベルが異なる)の公開データを使用して、大規模で異質なラベル付きデータセットを使用して、このフレームワークで1つの大きなAIモデルをトレーニングできることを実証します。
FFLでトレーニングされたモデルは、マッチングアノテーションのみでトレーニングされたモデルよりも優れていることが分かりました。
これは、既存のすべてのデータを効率的に活用する真に大規模なAIモデルのトレーニングの道を開くかもしれない。
関連論文リスト
- FedCVD: The First Real-World Federated Learning Benchmark on Cardiovascular Disease Data [52.55123685248105]
心臓血管疾患(CVD)は、現在世界でも主要な死因であり、早期診断と治療の要点を浮き彫りにしている。
機械学習(ML)手法はCVDの早期診断に役立つが、その性能は高品質なデータへのアクセスに依存している。
本稿では、FedCVDという心臓血管疾患検出のための、世界初の実世界のFLベンチマークを示す。
論文 参考訳(メタデータ) (2024-10-28T02:24:01Z) - Future-Proofing Medical Imaging with Privacy-Preserving Federated Learning and Uncertainty Quantification: A Review [14.88874727211064]
AIはすぐに、病気の診断、予後、治療計画、治療後の監視のための臨床実践のルーチンになるかもしれない。
患者のデータを取り巻くプライバシー上の懸念は、医療画像にAIが広く採用される上で大きな障壁となる。
Federated Learning(FL)は、機密データを共有することなく、AIモデルを協調的にトレーニングするためのソリューションを提供する。
論文 参考訳(メタデータ) (2024-09-24T16:55:32Z) - FedMM: Federated Multi-Modal Learning with Modality Heterogeneity in
Computational Pathology [3.802258033231335]
Federated Multi-Modal (FedMM) は、複数の単一モード特徴抽出器を訓練し、その後の分類性能を向上させる学習フレームワークである。
FedMMは、精度とAUCメトリクスの2つのベースラインを特に上回っている。
論文 参考訳(メタデータ) (2024-02-24T16:58:42Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Federated Multilingual Models for Medical Transcript Analysis [11.877236847857336]
大規模多言語モデルを学習するための連合学習システムを提案する。
トレーニングデータはすべて、中央に送信されることはない。
本研究では,グローバルモデルの性能を,局所的に行うトレーニングステップによってさらに向上させることができることを示す。
論文 参考訳(メタデータ) (2022-11-04T01:07:54Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Label-Efficient Self-Supervised Federated Learning for Tackling Data
Heterogeneity in Medical Imaging [23.08596805950814]
医用画像解析のための頑健でラベル効率の良い自己教師型FLフレームワークを提案する。
具体的には,既存のFLパイプラインに分散自己教師型事前学習パラダイムを導入する。
自己教師付きFLアルゴリズムは,分布外データに対してよく一般化し,限定ラベルのシナリオにおいてより効果的にフェデレーションモデルを学習することを示す。
論文 参考訳(メタデータ) (2022-05-17T18:33:43Z) - Federated Cross Learning for Medical Image Segmentation [23.075410916203005]
フェデレーテッド・ラーニング(FL)は、様々な臨床応用のために、異なる病院が所有する隔離された患者データを用いて、ディープラーニングモデルを協調的に訓練することができる。
FLの大きな問題は、独立して分散されていないデータ(非ID)を扱う際のパフォーマンス劣化である。
論文 参考訳(メタデータ) (2022-04-05T18:55:02Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。