論文の概要: Rad4XCNN: a new agnostic method for post-hoc global explanation of CNN-derived features by means of radiomics
- arxiv url: http://arxiv.org/abs/2405.02334v1
- Date: Fri, 26 Apr 2024 15:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-12 15:50:33.697948
- Title: Rad4XCNN: a new agnostic method for post-hoc global explanation of CNN-derived features by means of radiomics
- Title(参考訳): Rad4XCNN : 放射線学的手法によるCNN由来の特徴のポストホックな世界的説明法
- Authors: Francesco Prinzi, Carmelo Militello, Calogero Zarcaro, Tommaso Vincenzo Bartolotta, Salvatore Gaglio, Salvatore Vitabile,
- Abstract要約: 本稿では,放射線学的特徴に固有の解釈可能性を持つCNN特徴の予測能力を高めるために,Rad4XCNNという新しい手法を提案する。
我々はRad4XCNNを、内部および外部の検証のためのオンラインデータセットと2つの社内データセットを含む超音波画像データセットで評価した。
- 参考スコア(独自算出の注目度): 0.26200292205757436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last years, artificial intelligence (AI) in clinical decision support systems (CDSS) played a key role in harnessing machine learning and deep learning architectures. Despite their promising capabilities, the lack of transparency and explainability of AI models poses significant challenges, particularly in medical contexts where reliability is a mandatory aspect. Achieving transparency without compromising predictive accuracy remains a key challenge. This paper presents a novel method, namely Rad4XCNN, to enhance the predictive power of CNN-derived features with the interpretability inherent in radiomic features. Rad4XCNN diverges from conventional methods based on saliency map, by associating intelligible meaning to CNN-derived features by means of Radiomics, offering new perspectives on explanation methods beyond visualization maps. Using a breast cancer classification task as a case study, we evaluated Rad4XCNN on ultrasound imaging datasets, including an online dataset and two in-house datasets for internal and external validation. Some key results are: i) CNN-derived features guarantee more robust accuracy when compared against ViT-derived and radiomic features; ii) conventional visualization map methods for explanation present several pitfalls; iii) Rad4XCNN does not sacrifice model accuracy for their explainability; iv) Rad4XCNN provides global explanation insights enabling the physician to analyze the model outputs and findings. In addition, we highlight the importance of integrating interpretability into AI models for enhanced trust and adoption in clinical practice, emphasizing how our method can mitigate some concerns related to explainable AI methods.
- Abstract(参考訳): 近年,臨床意思決定支援システム(CDSS)における人工知能(AI)は,機械学習とディープラーニングアーキテクチャを活用する上で重要な役割を果たしている。
その有望な能力にもかかわらず、AIモデルの透明性の欠如と説明可能性の欠如は、特に信頼性が必須の側面である医療状況において、重大な課題を提起する。
予測精度を損なうことなく透明性を達成することは、依然として重要な課題である。
本稿では,放射線学的特徴に固有の解釈可能性を持つCNN特徴の予測能力を高めるために,Rad4XCNNという新しい手法を提案する。
Rad4XCNNは、放射能を用いてCNNから派生した特徴に理解不能な意味を関連付け、可視化マップ以外の説明方法に関する新たな視点を提供することにより、従来の方法から分岐する。
乳がん分類タスクをケーススタディとして,オンラインデータセットと内部および外部バリデーションのための2つの社内データセットを含む超音波画像データセットのRad4XCNNを評価した。
主な成果は次のとおりである。
i) CNN由来の特徴は、ViT由来の特徴及び放射線学的特徴と比較して、より堅牢な精度を保証する。
二 説明のための従来の可視化地図方法にいくつかの落とし穴があること。
三Rad4XCNNは、その説明責任のためにモデルの精度を犠牲にしない。
iv)Rad4XCNNは、医師がモデルアウトプットと所見を分析できるようにするグローバルな説明洞察を提供する。
さらに、臨床実践における信頼と採用を高めるために、AIモデルに解釈可能性を統合することの重要性を強調し、私たちの方法が説明可能なAIメソッドに関連する懸念を緩和する方法について強調する。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Enhancing Radiology Diagnosis through Convolutional Neural Networks for
Computer Vision in Healthcare [0.0]
放射線診断におけるCNNは、解釈可能性、有効性、倫理的問題に焦点をあてて検討される。
CNNは、特殊性、感度、正確性という点で優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-11-19T05:35:32Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Transferability of coVariance Neural Networks and Application to
Interpretable Brain Age Prediction using Anatomical Features [119.45320143101381]
グラフ畳み込みネットワーク(GCN)は、トポロジー駆動のグラフ畳み込み演算を利用して、推論タスクのためにグラフをまたいだ情報を結合する。
我々は、共分散行列をグラフとして、共分散ニューラルネットワーク(VNN)の形でGCNを研究した。
VNNは、GCNからスケールフリーなデータ処理アーキテクチャを継承し、ここでは、共分散行列が極限オブジェクトに収束するデータセットに対して、VNNが性能の転送可能性を示すことを示す。
論文 参考訳(メタデータ) (2023-05-02T22:15:54Z) - Improving Interpretability of Deep Neural Networks in Medical Diagnosis
by Investigating the Individual Units [24.761080054980713]
入力画像における重要な要素を可視化することにより,最近の帰属技術の有効性を実証し,診断の意思決定を説明する。
アンマキングマシンインテリジェンスの分析は、診断決定における説明可能性の必要性を示している。
論文 参考訳(メタデータ) (2021-07-19T11:49:31Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z) - Learning Interpretable Microscopic Features of Tumor by Multi-task
Adversarial CNNs To Improve Generalization [1.7371375427784381]
既存のCNNモデルはブラックボックスとして機能し、医師が重要な診断機能がモデルによって使用されることを保証しない。
ここでは,マルチタスクと敵の損失を両立させる不確実性に基づく重み付けの組み合わせをエンド・ツー・エンドで学習することにより,病理的特徴に焦点を合わせることを推奨する。
AUC 0.89 (0.01) がベースラインであるAUC 0.86 (0.005) に対して最も高い値を示した。
論文 参考訳(メタデータ) (2020-08-04T12:10:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。