論文の概要: A Survey on Trustworthiness in Foundation Models for Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2407.15851v2
- Date: Mon, 07 Oct 2024 02:03:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 18:01:02.072120
- Title: A Survey on Trustworthiness in Foundation Models for Medical Image Analysis
- Title(参考訳): 医用画像解析の基礎モデルにおける信頼性に関する調査
- Authors: Congzhen Shi, Ryan Rezai, Jiaxi Yang, Qi Dou, Xiaoxiao Li,
- Abstract要約: 医用画像における基礎モデルの新たな分類法を提案する。
本研究は, セグメンテーション, 医療報告生成, 医療質問と回答(Q&A), 疾患診断に焦点をあてる。
我々の分析は、医用画像解析において、信頼できるAIに向けて進むための必須事項である。
- 参考スコア(独自算出の注目度): 27.876946673940452
- License:
- Abstract: The rapid advancement of foundation models in medical imaging represents a significant leap toward enhancing diagnostic accuracy and personalized treatment. However, the deployment of foundation models in healthcare necessitates a rigorous examination of their trustworthiness, encompassing privacy, robustness, reliability, explainability, and fairness. The current body of survey literature on foundation models in medical imaging reveals considerable gaps, particularly in the area of trustworthiness. Additionally, existing surveys on the trustworthiness of foundation models do not adequately address their specific variations and applications within the medical imaging domain. This survey aims to fill that gap by presenting a novel taxonomy of foundation models used in medical imaging and analyzing the key motivations for ensuring their trustworthiness. We review current research on foundation models in major medical imaging applications, focusing on segmentation, medical report generation, medical question and answering (Q\&A), and disease diagnosis. These areas are highlighted because they have seen a relatively mature and substantial number of foundation models compared to other applications. We focus on literature that discusses trustworthiness in medical image analysis manuscripts. We explore the complex challenges of building trustworthy foundation models for each application, summarizing current concerns and strategies for enhancing trustworthiness. Furthermore, we examine the potential of these models to revolutionize patient care. Our analysis underscores the imperative for advancing towards trustworthy AI in medical image analysis, advocating for a balanced approach that fosters innovation while ensuring ethical and equitable healthcare delivery.
- Abstract(参考訳): 医療画像の基礎モデルの急速な進歩は、診断精度の向上とパーソナライズされた治療への大きな飛躍を示している。
しかしながら、基礎モデルのヘルスケアへの展開は、プライバシ、堅牢性、信頼性、説明可能性、公正性を含む、厳格な信頼性の検証を必要とする。
医療画像の基礎モデルに関する現在の調査文献では、特に信頼性の領域において、かなりのギャップが明らかになっている。
さらに、基礎モデルの信頼性に関する既存の調査は、医療画像領域内の特定のバリエーションや応用を適切に解決していない。
本調査は,医療画像の基盤モデルの新たな分類法を提示し,信頼性を確保するための主要な動機を分析することによって,そのギャップを埋めることを目的としている。
本研究は, 画像診断における基礎モデル, セグメンテーション, 医療報告生成, 医療質問と回答(Q\&A), 疾患診断に焦点をあてるものである。
これらの領域は、他のアプリケーションと比較して比較的成熟し、かなりの数の基盤モデルを見てきたため、強調されている。
医用画像解析原稿の信頼性を論じる文献に焦点をあてる。
信頼性を高めるための現在の関心事と戦略を要約し、各アプリケーションに対して信頼できる基盤モデルを構築するという複雑な課題について検討する。
さらに,これらのモデルが患者のケアに革命をもたらす可能性を考察した。
われわれの分析は、医療画像分析において信頼できるAIに進むための必須事項であり、倫理的かつ公平な医療提供を確保しつつ、イノベーションを促進するバランスのとれたアプローチを提唱している。
関連論文リスト
- DWARF: Disease-weighted network for attention map refinement [6.658039889530641]
本研究は、医療専門家を解釈可能性のプロセスに統合することで、医療画像分析における「ループ外人間」と「信頼」の問題に対処する。
本稿では、専門家のフィードバックを活用して、モデル妥当性と精度を高める病弱注意マップ改善ネットワーク(DWARF)を提案する。
論文 参考訳(メタデータ) (2024-06-24T18:00:11Z) - Privacy Preserving Federated Learning in Medical Imaging with Uncertainty Estimation [15.63535423357971]
機械学習(ML)と人工知能(AI)は、特に医療において顕著な進歩を加速している。医療画像では、MLモデルは、疾患の診断、治療計画、治療後のモニタリングを改善するという約束を持っている。
患者のデータを取り巻くプライバシーに関する懸念は、正確で堅牢で一般化可能なモデルの開発とトレーニングに必要な大規模なトレーニングデータセットの組み立てを妨げる。
フェデレートラーニング(FL)は魅力的なソリューションとして登場し、データ(医療画像など)ではなくモデルトレーニング情報(段階的)を共有することで、組織がMLモデルのトレーニングに協力できるようにする。
論文 参考訳(メタデータ) (2024-06-18T17:35:52Z) - CARES: A Comprehensive Benchmark of Trustworthiness in Medical Vision Language Models [92.04812189642418]
我々はCARESを紹介し,医療領域全体での医療LVLMの信頼性を評価することを目的とする。
我々は,Med-LVLMの信頼性を,信頼性,公正性,安全性,プライバシ,堅牢性,5次元にわたって評価する。
論文 参考訳(メタデータ) (2024-06-10T04:07:09Z) - On the Challenges and Perspectives of Foundation Models for Medical
Image Analysis [17.613533812925635]
医療基盤モデルは、幅広い下流タスクを解く上で大きな可能性を秘めている。
それらは、正確で堅牢なモデルの開発を加速し、大量のラベル付きデータを削減し、患者のデータのプライバシと機密性を維持するのに役立つ。
論文 参考訳(メタデータ) (2023-06-09T06:54:58Z) - Adversarial Attack and Defense for Medical Image Analysis: Methods and
Applications [57.206139366029646]
医用画像解析における対人攻撃と防御の進歩に関する総合的な調査を報告する。
医療画像解析のための異なる種類の敵攻撃のための統一的理論的枠組みと防衛方法を提供する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - A Review of Uncertainty Estimation and its Application in Medical
Imaging [32.860577735207094]
不確実性推定は、深部モデルの予測とともに信頼性評価を生成する上で重要な役割を果たす。
これは特に医療画像において重要であり、モデルの予測の不確実性は、関心領域の特定や、臨床医への追加情報の提供に利用することができる。
論文 参考訳(メタデータ) (2023-02-16T06:54:33Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - UNITE: Uncertainty-based Health Risk Prediction Leveraging Multi-sourced
Data [81.00385374948125]
我々はUNcertaInTyベースのhEalth Risk Prediction(UNITE)モデルを提案する。
UNITEは、複数ソースの健康データを活用した正確な疾患リスク予測と不確実性推定を提供する。
非アルコール性脂肪肝疾患(NASH)とアルツハイマー病(AD)の実態予測タスクにおけるUNITEの評価を行った。
UNITEはAD検出のF1スコアで最大0.841点、NASH検出のPR-AUCで最大0.609点を達成し、最高のベースラインで最大19%の高パフォーマンスを達成している。
論文 参考訳(メタデータ) (2020-10-22T02:28:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。