論文の概要: A Dempster-Shafer approach to trustworthy AI with application to fetal
brain MRI segmentation
- arxiv url: http://arxiv.org/abs/2204.02779v4
- Date: Wed, 17 Jan 2024 09:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 22:27:41.416432
- Title: A Dempster-Shafer approach to trustworthy AI with application to fetal
brain MRI segmentation
- Title(参考訳): 信頼できるAIに対するDempster-Shaferアプローチと胎児脳MRI領域への応用
- Authors: Lucas Fidon, Michael Aertsen, Florian Kofler, Andrea Bink, Anna L.
David, Thomas Deprest, Doaa Emam, Fr\'ed\'eric Guffens, Andr\'as Jakab,
Gregor Kasprian, Patric Kienast, Andrew Melbourne, Bjoern Menze, Nada Mufti,
Ivana Pogledic, Daniela Prayer, Marlene Stuempflen, Esther Van Elslander,
S\'ebastien Ourselin, Jan Deprest, Tom Vercauteren
- Abstract要約: 我々は、信頼できるAI理論フレームワークと、バックボーンAIシステムを拡張可能な実用的なシステムを提案する。
胎児MRIのアノテートデータセットにおける信頼性の高いAIアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 3.3418712704529585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models for medical image segmentation can fail unexpectedly and
spectacularly for pathological cases and images acquired at different centers
than training images, with labeling errors that violate expert knowledge. Such
errors undermine the trustworthiness of deep learning models for medical image
segmentation. Mechanisms for detecting and correcting such failures are
essential for safely translating this technology into clinics and are likely to
be a requirement of future regulations on artificial intelligence (AI). In this
work, we propose a trustworthy AI theoretical framework and a practical system
that can augment any backbone AI system using a fallback method and a fail-safe
mechanism based on Dempster-Shafer theory. Our approach relies on an actionable
definition of trustworthy AI. Our method automatically discards the voxel-level
labeling predicted by the backbone AI that violate expert knowledge and relies
on a fallback for those voxels. We demonstrate the effectiveness of the
proposed trustworthy AI approach on the largest reported annotated dataset of
fetal MRI consisting of 540 manually annotated fetal brain 3D T2w MRIs from 13
centers. Our trustworthy AI method improves the robustness of a
state-of-the-art backbone AI for fetal brain MRIs acquired across various
centers and for fetuses with various brain abnormalities.
- Abstract(参考訳): 医療画像セグメンテーションのための深層学習モデルは、専門家の知識に反するラベル付けエラーを伴って、トレーニング画像と異なるセンターで取得された病理ケースや画像に対して予期せず、驚くほど失敗する可能性がある。
このような誤りは、医用画像分割のための深層学習モデルの信頼性を損なう。
このような障害の検出と修正のメカニズムは、この技術を診療所へ安全に翻訳するために不可欠であり、人工知能(AI)に関する将来の規制の要件である可能性が高い。
本研究では,Dempster-Shafer理論に基づくフォールバック手法とフェールセーフ機構を用いて,任意のバックボーンAIシステムを拡張可能な信頼性の高いAI理論フレームワークと実用的なシステムを提案する。
私たちのアプローチは、信頼できるAIの実用的な定義に依存しています。
我々の手法は、専門家の知識に反し、それらのボクセルのフォールバックに依存するバックボーンAIによって予測されるボクセルレベルのラベルを自動的に破棄する。
今回提案した信頼できるAIアプローチが,13中心の540個の手動3D T2w MRIからなる胎児MRIの最大の注釈データセットに対して有効であることを示す。
我々の信頼できるAI手法は、様々なセンターで取得された胎児脳MRIと、様々な脳異常を持つ胎児に対する最先端のバックボーンAIの堅牢性を改善する。
関連論文リスト
- TACE: Tumor-Aware Counterfactual Explanations [5.126939640013051]
tumor Aware Counterfactual Explanations (TACE) は、医用画像の信頼性の高い偽物説明を生成するために設計されたフレームワークである。
提案手法は, 従来の最先端技術よりも, 品質, 忠実度, 生成速度をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-19T18:38:08Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - Artificial Intelligence in Fetal Resting-State Functional MRI Brain
Segmentation: A Comparative Analysis of 3D UNet, VNet, and HighRes-Net Models [1.2382905694337476]
本研究は、胎児脳fMRI, MRI(fMRI)における自動脳セグメンテーションのための人工知能(AI)の新たな応用を紹介した。
3D UNet、VNet、HighResNetの3つのAIモデルが採用された。
以上の結果から,胎児の安静時fMRI脳セグメンテーションにおける各種AIモデルの性能が明らかにされた。
論文 参考訳(メタデータ) (2023-11-17T19:57:05Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis [82.2511780233828]
本稿では,様々な医療画像解析タスクにおいて,攻撃を行うことのできる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
論文 参考訳(メタデータ) (2021-12-02T11:52:17Z) - Explainable AI for medical imaging: Explaining pneumothorax diagnoses
with Bayesian Teaching [4.707325679181196]
ベイズ教養に基づく説明の導入と評価を行う。
医療専門家が説明に晒すことで、AIの診断決定を予測できることがわかりました。
これらの結果から,説明可能なAIは医用画像における人間とAIの協調を支援するのに有用であることが示唆された。
論文 参考訳(メタデータ) (2021-06-08T20:49:11Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。