論文の概要: A Survey on Trustworthiness in Foundation Models for Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2407.15851v2
- Date: Mon, 7 Oct 2024 02:03:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 15:45:25.601315
- Title: A Survey on Trustworthiness in Foundation Models for Medical Image Analysis
- Title(参考訳): 医用画像解析の基礎モデルにおける信頼性に関する調査
- Authors: Congzhen Shi, Ryan Rezai, Jiaxi Yang, Qi Dou, Xiaoxiao Li,
- Abstract要約: 医用画像における基礎モデルの新たな分類法を提案する。
本研究は, セグメンテーション, 医療報告生成, 医療質問と回答(Q&A), 疾患診断に焦点をあてる。
我々の分析は、医用画像解析において、信頼できるAIに向けて進むための必須事項である。
- 参考スコア(独自算出の注目度): 27.876946673940452
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of foundation models in medical imaging represents a significant leap toward enhancing diagnostic accuracy and personalized treatment. However, the deployment of foundation models in healthcare necessitates a rigorous examination of their trustworthiness, encompassing privacy, robustness, reliability, explainability, and fairness. The current body of survey literature on foundation models in medical imaging reveals considerable gaps, particularly in the area of trustworthiness. Additionally, existing surveys on the trustworthiness of foundation models do not adequately address their specific variations and applications within the medical imaging domain. This survey aims to fill that gap by presenting a novel taxonomy of foundation models used in medical imaging and analyzing the key motivations for ensuring their trustworthiness. We review current research on foundation models in major medical imaging applications, focusing on segmentation, medical report generation, medical question and answering (Q\&A), and disease diagnosis. These areas are highlighted because they have seen a relatively mature and substantial number of foundation models compared to other applications. We focus on literature that discusses trustworthiness in medical image analysis manuscripts. We explore the complex challenges of building trustworthy foundation models for each application, summarizing current concerns and strategies for enhancing trustworthiness. Furthermore, we examine the potential of these models to revolutionize patient care. Our analysis underscores the imperative for advancing towards trustworthy AI in medical image analysis, advocating for a balanced approach that fosters innovation while ensuring ethical and equitable healthcare delivery.
- Abstract(参考訳): 医療画像の基礎モデルの急速な進歩は、診断精度の向上とパーソナライズされた治療への大きな飛躍を示している。
しかしながら、基礎モデルのヘルスケアへの展開は、プライバシ、堅牢性、信頼性、説明可能性、公正性を含む、厳格な信頼性の検証を必要とする。
医療画像の基礎モデルに関する現在の調査文献では、特に信頼性の領域において、かなりのギャップが明らかになっている。
さらに、基礎モデルの信頼性に関する既存の調査は、医療画像領域内の特定のバリエーションや応用を適切に解決していない。
本調査は,医療画像の基盤モデルの新たな分類法を提示し,信頼性を確保するための主要な動機を分析することによって,そのギャップを埋めることを目的としている。
本研究は, 画像診断における基礎モデル, セグメンテーション, 医療報告生成, 医療質問と回答(Q\&A), 疾患診断に焦点をあてるものである。
これらの領域は、他のアプリケーションと比較して比較的成熟し、かなりの数の基盤モデルを見てきたため、強調されている。
医用画像解析原稿の信頼性を論じる文献に焦点をあてる。
信頼性を高めるための現在の関心事と戦略を要約し、各アプリケーションに対して信頼できる基盤モデルを構築するという複雑な課題について検討する。
さらに,これらのモデルが患者のケアに革命をもたらす可能性を考察した。
われわれの分析は、医療画像分析において信頼できるAIに進むための必須事項であり、倫理的かつ公平な医療提供を確保しつつ、イノベーションを促進するバランスのとれたアプローチを提唱している。
関連論文リスト
- Deep Generative Models for 3D Medical Image Synthesis [1.931185411277237]
深部生成モデリングは、現実的な医療画像を合成するための強力なツールとして登場した。
本章では3次元医用画像合成のための様々な深部生成モデルについて考察する。
論文 参考訳(メタデータ) (2024-10-23T08:33:23Z) - CARES: A Comprehensive Benchmark of Trustworthiness in Medical Vision Language Models [92.04812189642418]
我々はCARESを紹介し,医療領域全体での医療LVLMの信頼性を評価することを目的とする。
我々は,Med-LVLMの信頼性を,信頼性,公正性,安全性,プライバシ,堅牢性,5次元にわたって評価する。
論文 参考訳(メタデータ) (2024-06-10T04:07:09Z) - On the Out of Distribution Robustness of Foundation Models in Medical
Image Segmentation [47.95611203419802]
視覚と言語の基礎は、様々な自然画像とテキストデータに基づいて事前訓練されており、有望なアプローチとして現れている。
一般化性能を,同じ分布データセット上で微調整した後,事前学習した各種モデルの未確認領域と比較した。
さらに,凍結モデルに対する新しいベイズ不確実性推定法を開発し,分布外データに基づくモデルの性能評価指標として利用した。
論文 参考訳(メタデータ) (2023-11-18T14:52:10Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Empirical Analysis of a Segmentation Foundation Model in Prostate
Imaging [9.99042549094606]
医療画像セグメンテーションのための基盤モデルUniverSegについて考察する。
本研究では,前立腺画像の文脈における経験的評価研究を行い,従来のタスク固有セグメンテーションモデルの訓練手法と比較する。
論文 参考訳(メタデータ) (2023-07-06T20:00:52Z) - On the Challenges and Perspectives of Foundation Models for Medical
Image Analysis [17.613533812925635]
医療基盤モデルは、幅広い下流タスクを解く上で大きな可能性を秘めている。
それらは、正確で堅牢なモデルの開発を加速し、大量のラベル付きデータを削減し、患者のデータのプライバシと機密性を維持するのに役立つ。
論文 参考訳(メタデータ) (2023-06-09T06:54:58Z) - A Trustworthy Framework for Medical Image Analysis with Deep Learning [71.48204494889505]
TRUDLMIAは医用画像解析のための信頼できるディープラーニングフレームワークである。
新型コロナウイルス(COVID-19)などの公衆衛生危機への対応に深層学習の活用を推進していくため、研究者や臨床医を支援することが期待されている。
論文 参考訳(メタデータ) (2022-12-06T05:30:22Z) - Adapting Pretrained Vision-Language Foundational Models to Medical
Imaging Domains [3.8137985834223502]
臨床の文脈を忠実に描写する医療画像の生成モデルを構築することは、医療データセットの不明瞭さを軽減するのに役立つ。
安定拡散パイプラインのサブコンポーネントを探索し、モデルを微調整して医用画像を生成する。
我々の最良の性能モデルは、安定な拡散ベースラインを改善し、合成ラジオグラフィ画像に現実的な異常を挿入するように条件付けすることができる。
論文 参考訳(メタデータ) (2022-10-09T01:43:08Z) - Towards Trustworthy Healthcare AI: Attention-Based Feature Learning for
COVID-19 Screening With Chest Radiography [70.37371604119826]
信頼性を備えたAIモデルの構築は、特に医療などの規制領域において重要である。
これまでの研究では、畳み込みニューラルネットワークをバックボーンアーキテクチャとして使用していた。
本稿では,視覚変換器を用いた特徴学習手法を提案する。
論文 参考訳(メタデータ) (2022-07-19T14:55:42Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。