論文の概要: Rad4XCNN: a new agnostic method for post-hoc global explanation of CNN-derived features by means of radiomics
- arxiv url: http://arxiv.org/abs/2405.02334v1
- Date: Fri, 26 Apr 2024 15:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-12 15:50:33.697948
- Title: Rad4XCNN: a new agnostic method for post-hoc global explanation of CNN-derived features by means of radiomics
- Title(参考訳): Rad4XCNN : 放射線学的手法によるCNN由来の特徴のポストホックな世界的説明法
- Authors: Francesco Prinzi, Carmelo Militello, Calogero Zarcaro, Tommaso Vincenzo Bartolotta, Salvatore Gaglio, Salvatore Vitabile,
- Abstract要約: 本稿では,放射線学的特徴に固有の解釈可能性を持つCNN特徴の予測能力を高めるために,Rad4XCNNという新しい手法を提案する。
我々はRad4XCNNを、内部および外部の検証のためのオンラインデータセットと2つの社内データセットを含む超音波画像データセットで評価した。
- 参考スコア(独自算出の注目度): 0.26200292205757436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last years, artificial intelligence (AI) in clinical decision support systems (CDSS) played a key role in harnessing machine learning and deep learning architectures. Despite their promising capabilities, the lack of transparency and explainability of AI models poses significant challenges, particularly in medical contexts where reliability is a mandatory aspect. Achieving transparency without compromising predictive accuracy remains a key challenge. This paper presents a novel method, namely Rad4XCNN, to enhance the predictive power of CNN-derived features with the interpretability inherent in radiomic features. Rad4XCNN diverges from conventional methods based on saliency map, by associating intelligible meaning to CNN-derived features by means of Radiomics, offering new perspectives on explanation methods beyond visualization maps. Using a breast cancer classification task as a case study, we evaluated Rad4XCNN on ultrasound imaging datasets, including an online dataset and two in-house datasets for internal and external validation. Some key results are: i) CNN-derived features guarantee more robust accuracy when compared against ViT-derived and radiomic features; ii) conventional visualization map methods for explanation present several pitfalls; iii) Rad4XCNN does not sacrifice model accuracy for their explainability; iv) Rad4XCNN provides global explanation insights enabling the physician to analyze the model outputs and findings. In addition, we highlight the importance of integrating interpretability into AI models for enhanced trust and adoption in clinical practice, emphasizing how our method can mitigate some concerns related to explainable AI methods.
- Abstract(参考訳): 近年,臨床意思決定支援システム(CDSS)における人工知能(AI)は,機械学習とディープラーニングアーキテクチャを活用する上で重要な役割を果たしている。
その有望な能力にもかかわらず、AIモデルの透明性の欠如と説明可能性の欠如は、特に信頼性が必須の側面である医療状況において、重大な課題を提起する。
予測精度を損なうことなく透明性を達成することは、依然として重要な課題である。
本稿では,放射線学的特徴に固有の解釈可能性を持つCNN特徴の予測能力を高めるために,Rad4XCNNという新しい手法を提案する。
Rad4XCNNは、放射能を用いてCNNから派生した特徴に理解不能な意味を関連付け、可視化マップ以外の説明方法に関する新たな視点を提供することにより、従来の方法から分岐する。
乳がん分類タスクをケーススタディとして,オンラインデータセットと内部および外部バリデーションのための2つの社内データセットを含む超音波画像データセットのRad4XCNNを評価した。
主な成果は次のとおりである。
i) CNN由来の特徴は、ViT由来の特徴及び放射線学的特徴と比較して、より堅牢な精度を保証する。
二 説明のための従来の可視化地図方法にいくつかの落とし穴があること。
三Rad4XCNNは、その説明責任のためにモデルの精度を犠牲にしない。
iv)Rad4XCNNは、医師がモデルアウトプットと所見を分析できるようにするグローバルな説明洞察を提供する。
さらに、臨床実践における信頼と採用を高めるために、AIモデルに解釈可能性を統合することの重要性を強調し、私たちの方法が説明可能なAIメソッドに関連する懸念を緩和する方法について強調する。
関連論文リスト
- Hybrid Interpretable Deep Learning Framework for Skin Cancer Diagnosis: Integrating Radial Basis Function Networks with Explainable AI [1.1049608786515839]
皮膚がんは世界中で最も流行し、致命的な疾患の1つである。
本稿では,畳み込みニューラルネットワーク(CNN)とラジアル基底関数(RBF)ネットワークを統合するハイブリッドディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-24T19:19:02Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。