論文の概要: TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models
- arxiv url: http://arxiv.org/abs/2110.08429v1
- Date: Sat, 16 Oct 2021 01:00:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 14:06:09.268425
- Title: TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models
- Title(参考訳): torchesegeta: 画像に基づくディープラーニングモデルの解釈性と説明可能性のためのフレームワーク
- Authors: Soumick Chatterjee, Arnab Das, Chirag Mandal, Budhaditya Mukhopadhyay,
Manish Vipinraj, Aniruddh Shukla, Rajatha Nagaraja Rao, Chompunuch Sarasaen,
Oliver Speck and Andreas N\"urnberger
- Abstract要約: 臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clinicians are often very sceptical about applying automatic image processing
approaches, especially deep learning based methods, in practice. One main
reason for this is the black-box nature of these approaches and the inherent
problem of missing insights of the automatically derived decisions. In order to
increase trust in these methods, this paper presents approaches that help to
interpret and explain the results of deep learning algorithms by depicting the
anatomical areas which influence the decision of the algorithm most. Moreover,
this research presents a unified framework, TorchEsegeta, for applying various
interpretability and explainability techniques for deep learning models and
generate visual interpretations and explanations for clinicians to corroborate
their clinical findings. In addition, this will aid in gaining confidence in
such methods. The framework builds on existing interpretability and
explainability techniques that are currently focusing on classification models,
extending them to segmentation tasks. In addition, these methods have been
adapted to 3D models for volumetric analysis. The proposed framework provides
methods to quantitatively compare visual explanations using infidelity and
sensitivity metrics. This framework can be used by data scientists to perform
post-hoc interpretations and explanations of their models, develop more
explainable tools and present the findings to clinicians to increase their
faith in such models. The proposed framework was evaluated based on a use case
scenario of vessel segmentation models trained on Time-of-fight (TOF) Magnetic
Resonance Angiogram (MRA) images of the human brain. Quantitative and
qualitative results of a comparative study of different models and
interpretability methods are presented. Furthermore, this paper provides an
extensive overview of several existing interpretability and explainability
methods.
- Abstract(参考訳): 臨床医はしばしば、自動化された画像処理アプローチ、特にディープラーニングに基づく手法を適用することに非常に懐疑的である。
この理由の1つは、これらのアプローチのブラックボックスの性質と、自動導出決定の洞察の欠如という本質的な問題である。
本稿では,これらの手法に対する信頼度を高めるために,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を表現することによって,深層学習アルゴリズムの結果を解釈し,説明するための手法を提案する。
さらに本研究は,深層学習モデルに様々な解釈可能性と説明可能性技術を適用し,臨床医が臨床所見を照合するための視覚的解釈と説明を生成するための統一フレームワークであるtorchesegetaを提案する。
さらに、このような手法への信頼を得るのに役立つだろう。
このフレームワークは、現在分類モデルに焦点を当てている既存の解釈可能性と説明可能性の技術に基づいており、それらをセグメンテーションタスクに拡張している。
さらに,これらの手法は体積解析のための3次元モデルに適用されている。
提案手法は不確かさと感度の指標を用いて視覚的な説明を定量的に比較する方法を提供する。
このフレームワークは、データサイエンティストがモデルに対するポストホックな解釈と説明を行い、より説明しやすいツールを開発し、そのモデルに対する信頼を高めるために臨床医に調査結果を提示するために使うことができる。
提案手法は,ヒト脳の磁気共鳴血管造影(MRA)画像に基づいて訓練された血管分割モデルのユースケースシナリオに基づいて評価された。
異なるモデルと解釈可能性法の比較研究の定量的および定性的な結果を示す。
さらに,本稿では,既存の解釈可能性と説明可能性について概説する。
関連論文リスト
- Aligning Characteristic Descriptors with Images for Human-Expert-like Explainability [0.0]
法執行機関や医療診断のようなミッションクリティカルな領域では、ディープラーニングモデルのアウトプットを説明・解釈する能力が不可欠である。
本稿では,特徴記述子を用いたモデル決定手法を提案する。
論文 参考訳(メタデータ) (2024-11-06T15:47:18Z) - Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - MiMICRI: Towards Domain-centered Counterfactual Explanations of Cardiovascular Image Classification Models [11.998309673666167]
MiMICRIは、ユーザーが形態的構造に対応する医療画像のセグメントをインタラクティブに選択、置換するのに役立つ。
生成したカウンターファクトから,各セグメントがモデル予測に与える影響を評価することができる。
私たちはこの図書館を2人の医療専門家と評価した。
論文 参考訳(メタデータ) (2024-04-24T20:04:55Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Quantifying Explainability in NLP and Analyzing Algorithms for
Performance-Explainability Tradeoff [0.0]
臨床テキスト分類におけるケーススタディにおける説明可能性と解釈可能性の現状について考察する。
完全解釈可能な手法とモデルに依存しないポストホック属性に対する様々な可視化手法を実証する。
我々は,モデルの予測性能と利用可能な説明の質との間のフロンティアを,実践者や研究者が評価できる枠組みを導入する。
論文 参考訳(メタデータ) (2021-07-12T19:07:24Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。