論文の概要: Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2406.12815v1
- Date: Tue, 18 Jun 2024 17:35:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 17:49:20.170880
- Title: Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation
- Title(参考訳): 不確実性推定を用いた医用画像におけるフェデレーション学習のプライバシ保護
- Authors: Nikolas Koutsoubis, Yasin Yilmaz, Ravi P. Ramachandran, Matthew Schabath, Ghulam Rasool,
- Abstract要約: 機械学習(ML)と人工知能(AI)は、特に医療において顕著な進歩を加速している。医療画像では、MLモデルは、疾患の診断、治療計画、治療後のモニタリングを改善するという約束を持っている。
患者のデータを取り巻くプライバシーに関する懸念は、正確で堅牢で一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニングデータセットの組み立てを妨げる。
フェデレートラーニング(FL)は魅力的なソリューションとして登場し、データ(医療画像など)ではなくモデルトレーニング情報(段階的)を共有することで、組織がMLモデルのトレーニングに協力できるようにする。
- 参考スコア(独自算出の注目度): 15.63535423357971
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) and Artificial Intelligence (AI) have fueled remarkable advancements, particularly in healthcare. Within medical imaging, ML models hold the promise of improving disease diagnoses, treatment planning, and post-treatment monitoring. Various computer vision tasks like image classification, object detection, and image segmentation are poised to become routine in clinical analysis. However, privacy concerns surrounding patient data hinder the assembly of large training datasets needed for developing and training accurate, robust, and generalizable models. Federated Learning (FL) emerges as a compelling solution, enabling organizations to collaborate on ML model training by sharing model training information (gradients) rather than data (e.g., medical images). FL's distributed learning framework facilitates inter-institutional collaboration while preserving patient privacy. However, FL, while robust in privacy preservation, faces several challenges. Sensitive information can still be gleaned from shared gradients that are passed on between organizations during model training. Additionally, in medical imaging, quantifying model confidence\uncertainty accurately is crucial due to the noise and artifacts present in the data. Uncertainty estimation in FL encounters unique hurdles due to data heterogeneity across organizations. This paper offers a comprehensive review of FL, privacy preservation, and uncertainty estimation, with a focus on medical imaging. Alongside a survey of current research, we identify gaps in the field and suggest future directions for FL research to enhance privacy and address noisy medical imaging data challenges.
- Abstract(参考訳): 機械学習(ML)と人工知能(AI)は、特に医療において顕著な進歩をもたらした。
医療画像内では、MLモデルは疾患診断の改善、治療計画、治療後のモニタリングを約束する。
画像分類、物体検出、画像分割といった様々なコンピュータビジョンタスクは、臨床分析においてルーチンとなる。
しかし、患者のデータを取り巻くプライバシー上の懸念は、正確で堅牢で一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニングデータセットの組み立てを妨げる。
フェデレートラーニング(FL)は魅力的なソリューションとして登場し、データ(医療画像など)ではなくモデルトレーニング情報(段階的)を共有することで、MLモデルのトレーニングに協力することが可能になる。
FLの分散学習フレームワークは、患者のプライバシーを維持しながら、制度間コラボレーションを促進する。
しかし、FLはプライバシー保護に頑健だが、いくつかの課題に直面している。
敏感な情報は、モデルトレーニング中に組織間で渡される共有の勾配から、いまだに取り除くことができる。
さらに、医用画像では、データのノイズやアーティファクトのために、モデルの信頼性を正確に定量化することが重要である。
FLにおける不確実性推定は、組織間のデータの異質性に起因する、ユニークなハードルに直面する。
本稿では,FL,プライバシ保護,不確実性評価を包括的に検討し,医用画像に焦点をあてる。
現在の研究の他に、フィールドのギャップを特定し、プライバシーを高め、ノイズの多い医療画像データ問題に対処するためのFL研究の今後の方向性を提案する。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Future-Proofing Medical Imaging with Privacy-Preserving Federated Learning and Uncertainty Quantification: A Review [14.88874727211064]
AIはすぐに、病気の診断、予後、治療計画、治療後の監視のための臨床実践のルーチンになるかもしれない。
患者のデータを取り巻くプライバシー上の懸念は、医療画像にAIが広く採用される上で大きな障壁となる。
Federated Learning(FL)は、機密データを共有することなく、AIモデルを協調的にトレーニングするためのソリューションを提供する。
論文 参考訳(メタデータ) (2024-09-24T16:55:32Z) - Open Challenges and Opportunities in Federated Foundation Models Towards Biomedical Healthcare [14.399086205317358]
ファンデーションモデル(FM)は、教師なし事前訓練、自己教師付き学習、微調整の指導、人間のフィードバックからの強化学習など、膨大なデータセットで訓練される。
これらのモデルは、臨床報告、診断画像、マルチモーダル患者間相互作用などの多様なデータフォームの処理を必要とする生体医学的応用に不可欠である。
FLをこれらの洗練されたモデルに組み込むことは、機密性の高い医療データのプライバシーを守りながら、分析能力を活用するという有望な戦略を示す。
論文 参考訳(メタデータ) (2024-05-10T19:22:24Z) - Distributed Federated Learning-Based Deep Learning Model for Privacy MRI Brain Tumor Detection [11.980634373191542]
分散トレーニングは、大規模な医用画像データセットの処理を容易にし、疾患診断の精度と効率を向上させる。
本稿では,データプライバシと効率的な疾患診断という2つの課題に対処するために,Federated Learning(FL)を活用した医用画像分類の革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-15T09:07:19Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Improving Performance of Federated Learning based Medical Image Analysis
in Non-IID Settings using Image Augmentation [1.5469452301122177]
フェデレーテッド・ラーニング(FL)は、厳格なプライバシー制約の下で働く義務のある患者、人々、企業、業界に属する機密データを利用するのに適したソリューションである。
FLはデータプライバシとセキュリティの問題を主にあるいは部分的にサポートし、複数のエッジデバイスや組織が、複数のローカルデータを使用してグローバルモデルのトレーニングに、それらを必要とせずにコントリビュートするための、モデルの代替手段を提供する。
本稿では,FLの非IIDデータ問題に対処するため,画像の増大によりクライアントのデータ分散を動的にバランスさせる手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T10:05:42Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - FLOP: Federated Learning on Medical Datasets using Partial Networks [84.54663831520853]
新型コロナウイルスの感染拡大で医療資源が不足している。
新型コロナウイルスの診断を緩和するために、さまざまなデータ駆動型ディープラーニングモデルが開発されている。
患者のプライバシー上の懸念から、データそのものはまだ乏しい。
我々は、textbfPartial Networks (FLOP) を用いた、シンプルで効果的な textbfFederated textbfL textbfon Medical データセットを提案する。
論文 参考訳(メタデータ) (2021-02-10T01:56:58Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。