論文の概要: WWFedCBMIR: World-Wide Federated Content-Based Medical Image Retrieval
- arxiv url: http://arxiv.org/abs/2305.03383v1
- Date: Fri, 5 May 2023 09:28:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 14:40:44.362342
- Title: WWFedCBMIR: World-Wide Federated Content-Based Medical Image Retrieval
- Title(参考訳): wwfedcbmir:世界規模のフェデレーションコンテンツに基づく医用画像検索
- Authors: Zahra Tabatabaei, Yuandou Wang, Adri\'an Colomer, Javier Oliver Moll,
Zhiming Zhao, Valery Naranjo
- Abstract要約: 本稿では,CBMIRモデルをトレーニングするための多様な医療データセットを取得する上での課題を解決するために,FedCBMIR(Federated Content-Based Medical Image Retrieval)プラットフォームを提案する。
FedCBMIRは、データセットを共有することなく、モデルをコラボレーティブセンターに配布し、結果として、ローカルトレーニングよりもトレーニング時間が短縮される。
- 参考スコア(独自算出の注目度): 2.0470499067914942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The paper proposes a Federated Content-Based Medical Image Retrieval
(FedCBMIR) platform that utilizes Federated Learning (FL) to address the
challenges of acquiring a diverse medical data set for training CBMIR models.
CBMIR assists pathologists in diagnosing breast cancer more rapidly by
identifying similar medical images and relevant patches in prior cases compared
to traditional cancer detection methods. However, CBMIR in histopathology
necessitates a pool of Whole Slide Images (WSIs) to train to extract an optimal
embedding vector that leverages search engine performance, which may not be
available in all centers. The strict regulations surrounding data sharing in
medical data sets also hinder research and model development, making it
difficult to collect a rich data set. The proposed FedCBMIR distributes the
model to collaborative centers for training without sharing the data set,
resulting in shorter training times than local training. FedCBMIR was evaluated
in two experiments with three scenarios on BreaKHis and Camelyon17 (CAM17). The
study shows that the FedCBMIR method increases the F1-Score (F1S) of each
client to 98%, 96%, 94%, and 97% in the BreaKHis experiment with a generalized
model of four magnifications and does so in 6.30 hours less time than total
local training. FedCBMIR also achieves 98% accuracy with CAM17 in 2.49 hours
less training time than local training, demonstrating that our FedCBMIR is both
fast and accurate for both pathologists and engineers. In addition, our
FedCBMIR provides similar images with higher magnification for non-developed
countries where participate in the worldwide FedCBMIR with developed countries
to facilitate mitosis measuring in breast cancer diagnosis. We evaluate this
scenario by scattering BreaKHis into four centers with different
magnifications.
- Abstract(参考訳): 本稿では,federated learning(fl)を活用したfederated content-based medical image retrieval(fedcbmir)プラットフォームを提案する。
cbmirは、従来のがん検出法と比較して、前例における類似の医療画像や関連するパッチを同定することで、より迅速に乳癌の診断を支援する。
しかし、病理学におけるCBMIRは、全スライド画像(WSI)のプールを訓練し、検索エンジンのパフォーマンスを活用する最適な埋め込みベクトルを抽出する必要がある。
医療データセットにおけるデータ共有に関する厳格な規制は、研究やモデル開発を妨げるため、リッチデータセットの収集も困難である。
提案したFedCBMIRは、データセットを共有せずにトレーニングセンターにモデルを配布することで、ローカルトレーニングよりもトレーニング時間を短縮する。
FedCBMIR は BreaKHis と Camelyon17 (CAM17) の3つのシナリオで2つの実験で評価された。
この研究は、FedCBMIR法が4倍の一般化モデルを用いて、各クライアントのF1スコア(F1S)を98%、96%、94%、97%に増加させ、全局所訓練よりも6.30時間短縮できることを示した。
FedCBMIRは、ローカルトレーニングよりも2.49時間少ないトレーニング時間でCAM17の98%の精度を実現しています。
また,FedCBMIRは,先進国と世界規模のFedCBMIRに参加する非先進国に対して,乳がん診断におけるミトーシス測定を容易にするため,同様の画像を提供する。
このシナリオを,異なる倍率を持つ4つの中心に分割して評価する。
関連論文リスト
- BrainMVP: Multi-modal Vision Pre-training for Brain Image Analysis using Multi-parametric MRI [11.569448567735435]
BrainMVPは、マルチパラメトリックMRIスキャンを用いた脳画像解析のためのマルチモーダルビジョン事前トレーニングフレームワークである。
クロスモーダル・コンストラクション(英語版)は、特徴ある脳画像の埋め込みと効率的なモーダル融合能力を学習するために研究されている。
ダウンストリームタスクの実験は、医学領域における最先端の事前訓練方法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T15:12:16Z) - FedMedICL: Towards Holistic Evaluation of Distribution Shifts in Federated Medical Imaging [68.6715007665896]
FedMedICLは統合されたフレームワークであり、フェデレートされた医療画像の課題を全体評価するためのベンチマークである。
6種類の医用画像データセットについて,いくつかの一般的な手法を総合的に評価した。
単純なバッチ分散手法はFedMedICL実験全体の平均性能において,高度な手法を超越していることがわかった。
論文 参考訳(メタデータ) (2024-07-11T19:12:23Z) - PE-MVCNet: Multi-view and Cross-modal Fusion Network for Pulmonary Embolism Prediction [4.659998272408215]
肺塞栓症(PE)の早期発見は、患者の生存率を高めるために重要である。
PE-MVCNetとよばれる多モード核融合法を提案する。
提案モデルは既存の手法より優れており, 単一のデータモダリティを用いたモデルと比較して, マルチモーダル融合モデルの方が優れていることを裏付けるものである。
論文 参考訳(メタデータ) (2024-02-27T03:53:27Z) - Less Could Be Better: Parameter-efficient Fine-tuning Advances Medical
Vision Foundation Models [71.18275399694689]
医療視基盤モデルにおけるPEFTの有効性はまだ不明である。
NIH ChestX-ray14のラベル付きデータを用いたAUROCスコアの80.6%など,さまざまなデータ効率の学習タスクに対して,新たな最先端技術を構築した。
本研究は, PEFTを用いた医用画像の伝達学習において, コミュニティの注目を集めることが期待できる。
論文 参考訳(メタデータ) (2024-01-22T18:59:07Z) - Benchmarking Collaborative Learning Methods Cost-Effectiveness for
Prostate Segmentation [39.19170617818745]
我々は,MRIによる前立腺分節化問題に協調的なシナリオで対処する。
私たちの知る限りでは、コラボレーティブラーニングの問題を解決するためにコンセンサスベースの手法(CBM)が使用されるのはこれが初めてです。
論文 参考訳(メタデータ) (2023-09-29T09:47:18Z) - Comparing Results of Thermographic Images Based Diagnosis for Breast
Diseases [0.0]
乳房疾患の診断における赤外線画像の有用性について検討した。
我々はPROENG(Pro Engenharia)公開データベースから,lO2 IR単一乳房画像を用いた。
これらの画像は、UFPE(Universidade Federal de Pernambuco)病院から収集された。
論文 参考訳(メタデータ) (2022-08-30T17:22:52Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Closing the Generalization Gap of Cross-silo Federated Medical Image
Segmentation [66.44449514373746]
クロスサイロ・フェデレーション・ラーニング (FL) は近年, 深層学習による医用画像解析において注目されている。
FLでトレーニングされたモデルと、集中的なトレーニングでトレーニングされたモデルの間にはギャップがある。
本稿では,クライアントの問題を回避し,ドリフトギャップを解消するための新しいトレーニングフレームワークであるFedSMを提案する。
論文 参考訳(メタデータ) (2022-03-18T19:50:07Z) - FedMed-GAN: Federated Domain Translation on Unsupervised Cross-Modality
Brain Image Synthesis [55.939957482776194]
我々は、教師なし脳画像合成におけるフェデレートドメイン翻訳のための新しいベンチマーク(FedMed-GAN)を提案する。
FedMed-GANは発電機の性能を犠牲にすることなくモード崩壊を緩和する。
FedMed-GANと他の集中型手法を比較するための総合的な評価を提供する。
論文 参考訳(メタデータ) (2022-01-22T02:50:29Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。