論文の概要: EvidenceCap: Towards trustworthy medical image segmentation via
evidential identity cap
- arxiv url: http://arxiv.org/abs/2301.00349v1
- Date: Sun, 1 Jan 2023 05:02:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:57:32.075796
- Title: EvidenceCap: Towards trustworthy medical image segmentation via
evidential identity cap
- Title(参考訳): EvidenceCap: 明白なアイデンティティキャップによる信頼できる医療画像セグメンテーションを目指して
- Authors: Ke Zou and Xuedong Yuan and Xiaojing Shen and Yidi Chen and Meng Wang
and Rick Siow Mong Goh and Yong Liu and Huazhu Fu
- Abstract要約: 本研究では,不確実性推定によりボックスを定量的に透過するEvidenceCapという基礎モデルを提案する。
3つのセグメンテーションデータセットでEvidenceCapの有効性を示し,それを臨床に応用した。
- 参考スコア(独自算出の注目度): 36.54764157162341
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation (MIS) is essential for supporting disease
diagnosis and treatment effect assessment. Despite considerable advances in
artificial intelligence (AI) for MIS, clinicians remain skeptical of its
utility, maintaining low confidence in such black box systems, with this
problem being exacerbated by low generalization for out-of-distribution (OOD)
data. To move towards effective clinical utilization, we propose a foundation
model named EvidenceCap, which makes the box transparent in a quantifiable way
by uncertainty estimation. EvidenceCap not only makes AI visible in regions of
uncertainty and OOD data, but also enhances the reliability, robustness, and
computational efficiency of MIS. Uncertainty is modeled explicitly through
subjective logic theory to gather strong evidence from features. We show the
effectiveness of EvidenceCap in three segmentation datasets and apply it to the
clinic. Our work sheds light on clinical safe applications and explainable AI,
and can contribute towards trustworthiness in the medical domain.
- Abstract(参考訳): 医療イメージセグメンテーション(MIS)は、疾患の診断と治療効果評価を支援するために不可欠である。
MISの人工知能(AI)の進歩にもかかわらず、臨床医はその実用性に懐疑的であり、そのようなブラックボックスシステムの信頼性は低いが、この問題はアウト・オブ・ディストリビューション(OOD)データの低一般化によって悪化している。
有効な臨床利用に向けて,不確実性推定によりボックスを定量的に透明化するEvidenceCapという基礎モデルを提案する。
EvidenceCapは、不確実性とOODデータの領域でAIを可視化するだけでなく、MISの信頼性、堅牢性、計算効率を高める。
不確かさは主観論理理論を通じて明確にモデル化され、特徴から強い証拠を集める。
3つのセグメンテーションデータセットでEvidenceCapの有効性を示し,それを臨床に応用した。
私たちの研究は、臨床安全応用と説明可能なaiに光を当て、医療領域の信頼性に寄与します。
関連論文リスト
- ContrastDiagnosis: Enhancing Interpretability in Lung Nodule Diagnosis
Using Contrastive Learning [23.541034347602935]
臨床医のブラックボックスモデルに対する不信は、AI製品の臨床展開を妨げている。
ContrastDiagnosis(ContrastDiagnosis)を提案する。
AUCは0.977で高い診断精度を達成し、高い透明性と説明可能性を維持した。
論文 参考訳(メタデータ) (2024-03-08T13:00:52Z) - EndoOOD: Uncertainty-aware Out-of-distribution Detection in Capsule
Endoscopy Diagnosis [11.82953216903558]
ワイヤレスカプセル内視鏡(Wireless capsule endoscopy, WCE)は、消化管(GI)の可視化を可能にする非侵襲的診断法である。
深層学習に基づく手法は、WCEデータを用いた疾患スクリーニングの有効性を示した。
既存のカプセル内視鏡分類法は、主に事前に定義されたカテゴリーに依存している。
論文 参考訳(メタデータ) (2024-02-18T06:54:51Z) - Enabling Collaborative Clinical Diagnosis of Infectious Keratitis by
Integrating Expert Knowledge and Interpretable Data-driven Intelligence [28.144658552047975]
感染性角膜炎(IK)の診断における知識誘導診断モデル(KGDM)の性能,解釈可能性,臨床的有用性について検討した。
AIベースのバイオマーカーの診断確率比(DOR)は3.011から35.233の範囲で有効である。
コラボレーションの参加者は、人間とAIの両方を上回るパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-01-14T02:10:54Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Robust and Efficient Medical Imaging with Self-Supervision [80.62711706785834]
医用画像AIの堅牢性とデータ効率を向上させるための統一表現学習戦略であるREMEDISを提案する。
様々な医療画像タスクを研究し, 振り返りデータを用いて3つの現実的な応用シナリオをシミュレートする。
論文 参考訳(メタデータ) (2022-05-19T17:34:18Z) - COVID-Net Clinical ICU: Enhanced Prediction of ICU Admission for
COVID-19 Patients via Explainability and Trust Quantification [71.80459780697956]
患者臨床データに基づくICU入院予測のためのニューラルネットワークであるCOVID-Net Clinical ICUを紹介する。
提案されたCOVID-Net Clinical ICUは、1,925人のCOVID-19患者からなるシロ・リバネ病院の臨床データセットを使用して構築された。
定量的説明可能性戦略を用いたシステムレベルの洞察発見を行い,異なる臨床特徴の意思決定効果について検討した。
論文 参考訳(メタデータ) (2021-09-14T14:16:32Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。