論文の概要: A Dempster-Shafer approach to trustworthy AI with application to fetal
brain MRI segmentation
- arxiv url: http://arxiv.org/abs/2204.02779v1
- Date: Tue, 5 Apr 2022 15:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 12:37:55.239887
- Title: A Dempster-Shafer approach to trustworthy AI with application to fetal
brain MRI segmentation
- Title(参考訳): 信頼できるAIに対するDempster-Shaferアプローチと胎児脳MRI領域への応用
- Authors: Lucas Fidon, Michael Aertsen, Florian Kofler, Andrea Bink, Anna L.
David, Thomas Deprest, Doaa Emam, Fr/'ed/'eric Guffens, Andr\'as Jakab,
Gregor Kasprian, Patric Kienast, Andrew Melbourne, Bjoern Menze, Nada Mufti,
Ivana Pogledic, Daniela Prayer, Marlene Stuempflen, Esther Van Elslander,
S\'ebastien Ourselin, Jan Deprest, Tom Vercauteren
- Abstract要約: 本稿では,バックボーン型AIシステムを拡張可能な,信頼性の高いAI理論フレームワークと実用的なシステムを提案する。
胎児T2w MRIのアノテートデータセットにおける信頼に値するAIアプローチの有効性を実証する。
- 参考スコア(独自算出の注目度): 3.841931941553644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models for medical image segmentation can fail unexpectedly and
spectacularly for pathological cases and for images acquired at different
centers than those used for training, with labeling errors that violate expert
knowledge about the anatomy and the intensity distribution of the regions to be
segmented. Such errors undermine the trustworthiness of deep learning models
developed for medical image segmentation. Mechanisms with a fallback method for
detecting and correcting such failures are essential for safely translating
this technology into clinics and are likely to be a requirement of future
regulations on artificial intelligence (AI). Here, we propose a principled
trustworthy AI theoretical framework and a practical system that can augment
any backbone AI system using a fallback method and a fail-safe mechanism based
on Dempster-Shafer theory. Our approach relies on an actionable definition of
trustworthy AI. Our method automatically discards the voxel-level labeling
predicted by the backbone AI that are likely to violate expert knowledge and
relies on a fallback atlas-based segmentation method for those voxels. We
demonstrate the effectiveness of the proposed trustworthy AI approach on the
largest reported annotated dataset of fetal T2w MRI consisting of 540 manually
annotated fetal brain 3D MRIs with neurotypical or abnormal brain development
and acquired from 13 sources of data across 6 countries. We show that our
trustworthy AI method improves the robustness of a state-of-the-art backbone AI
for fetal brain MRI segmentation on MRIs acquired across various centers and
for fetuses with various brain abnormalities.
- Abstract(参考訳): 医学画像セグメンテーションのための深層学習モデルは、解剖学や領域の強度分布に関する専門家の知識に反するラベル付きエラーで、病理学的ケースやトレーニングで使用されるものとは異なるセンターで取得された画像に対して、予期せず、驚くほど失敗する可能性がある。
このようなエラーは、医学画像分割のために開発されたディープラーニングモデルの信頼性を損なう。
このような障害を検知し修正するためのフォールバック方式のメカニズムは、この技術を診療所へ安全に翻訳するために不可欠であり、人工知能(AI)に関する将来の規制の要件である可能性が高い。
本稿では,Dempster-Shafer理論に基づくフォールバック手法とフェールセーフ機構を用いて,任意のバックボーンAIシステムを拡張可能な,信頼性の高いAI理論フレームワークと実用的なシステムを提案する。
私たちのアプローチは、信頼できるAIの実用的な定義に依存しています。
提案手法は,専門知識に反する可能性のあるバックボーンAIによって予測されるボクセルレベルのラベルを自動的に破棄し,それらのボクセルに対するフォールバックアトラスに基づくセグメンテーション手法に依存する。
今回提案した信頼度の高いAIアプローチが,神経型または異常な脳発達を伴う540個の手指の胎児脳3DMRIからなり,6か国で13個のデータソースから得られた最も大きな胎児T2w MRIのアノテートデータセットに対して有効であることを示す。
以上の結果から,我々の信頼できるAI手法は,脳の様々な部位で取得されたMRIの胎児脳MRI領域に対する最先端のバックボーンAIの堅牢性を向上させることが示唆された。
関連論文リスト
- TACE: Tumor-Aware Counterfactual Explanations [5.126939640013051]
tumor Aware Counterfactual Explanations (TACE) は、医用画像の信頼性の高い偽物説明を生成するために設計されたフレームワークである。
提案手法は, 従来の最先端技術よりも, 品質, 忠実度, 生成速度をはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-19T18:38:08Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - Artificial Intelligence in Fetal Resting-State Functional MRI Brain
Segmentation: A Comparative Analysis of 3D UNet, VNet, and HighRes-Net Models [1.2382905694337476]
本研究は、胎児脳fMRI, MRI(fMRI)における自動脳セグメンテーションのための人工知能(AI)の新たな応用を紹介した。
3D UNet、VNet、HighResNetの3つのAIモデルが採用された。
以上の結果から,胎児の安静時fMRI脳セグメンテーションにおける各種AIモデルの性能が明らかにされた。
論文 参考訳(メタデータ) (2023-11-17T19:57:05Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - FIBA: Frequency-Injection based Backdoor Attack in Medical Image
Analysis [82.2511780233828]
本稿では,様々な医療画像解析タスクにおいて,攻撃を行うことのできる新しい周波数注入型バックドアアタック法(FIBA)を提案する。
具体的には、FIBAは、両方の画像のスペクトル振幅を線形に組み合わせることで、トリガー画像の低周波情報を有毒画像に注入できる周波数領域のトリガー関数を利用する。
論文 参考訳(メタデータ) (2021-12-02T11:52:17Z) - Explainable AI for medical imaging: Explaining pneumothorax diagnoses
with Bayesian Teaching [4.707325679181196]
ベイズ教養に基づく説明の導入と評価を行う。
医療専門家が説明に晒すことで、AIの診断決定を予測できることがわかりました。
これらの結果から,説明可能なAIは医用画像における人間とAIの協調を支援するのに有用であることが示唆された。
論文 参考訳(メタデータ) (2021-06-08T20:49:11Z) - Explainable AI meets Healthcare: A Study on Heart Disease Dataset [0.0]
目的は、様々な技術を用いて説明可能なAIシステムの理解性と解釈可能性について実践者に啓蒙することである。
本論文は、心臓病データセットに基づく例を収録し、信頼性を高めるために説明可能性技術をどのように好むべきかを解明する。
論文 参考訳(メタデータ) (2020-11-06T05:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。