論文の概要: What do Deep Neural Networks Learn in Medical Images?
- arxiv url: http://arxiv.org/abs/2208.00953v1
- Date: Mon, 1 Aug 2022 16:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-02 14:15:25.895357
- Title: What do Deep Neural Networks Learn in Medical Images?
- Title(参考訳): ディープニューラルネットワークは医療画像で何を学ぶか?
- Authors: Yusuf Brima and Marcellin Atemkeng
- Abstract要約: 本稿では,適応経路に基づく勾配積分手法を用いた新しい帰属フレームワークを提案する。
結果は、医療の成果を改善するためにドメインエキスパートへの信頼を構築するという有望な方向性を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is increasingly gaining rapid adoption in healthcare to help
improve patient outcomes. This is more so in medical image analysis which
requires extensive training to gain the requisite expertise to become a trusted
practitioner. However, while deep learning techniques have continued to provide
state-of-the-art predictive performance, one of the primary challenges that
stands to hinder this progress in healthcare is the opaque nature of the
inference mechanism of these models. So, attribution has a vital role in
building confidence in stakeholders for the predictions made by deep learning
models to inform clinical decisions. This work seeks to answer the question:
what do deep neural network models learn in medical images? In that light, we
present a novel attribution framework using adaptive path-based gradient
integration techniques. Results show a promising direction of building trust in
domain experts to improve healthcare outcomes by allowing them to understand
the input-prediction correlative structures, discover new bio-markers, and
reveal potential model biases.
- Abstract(参考訳): 深層学習は、患者の成果を改善するために、医療に急速に採用されつつある。
これは、信頼できる実践者になるための必要な専門知識を得るために、広範なトレーニングを必要とする医用画像分析においても同様である。
しかし、ディープラーニング技術は最先端の予測性能を提供し続けているが、医療におけるこの進歩を妨げる主な課題の1つは、これらのモデルの推論メカニズムが不透明であることだ。
したがって、属性は、臨床上の決定を伝えるための深層学習モデルによる予測に対する利害関係者の信頼を高める上で重要な役割を果たす。
ディープニューラルネットワークモデルは、医療画像で何を学ぶのか?
そこで我々は,適応経路に基づく勾配積分手法を用いた新しい帰属フレームワークを提案する。
結果は、入力予測相関構造を理解し、新しいバイオマーカーを発見し、潜在的なモデルバイアスを明らかにすることによって、医療結果を改善するためのドメインエキスパートへの信頼を構築する、有望な方向を示す。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - A Textbook Remedy for Domain Shifts: Knowledge Priors for Medical Image Analysis [48.84443450990355]
ディープネットワークは、医学的なスキャンに適用すると、例外のない状況で失敗することが多いため、自然画像の解析において広く成功している。
胸部X線や皮膚病変画像の文脈において、異なる病院から採取したデータや、性別、人種などの人口統計学的変数によって構築されたデータなど、ドメインシフトに対するモデル感度に焦点をあてる。
医学教育からインスピレーションを得て,自然言語で伝達される明示的な医学知識を基盤としたディープネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T17:55:02Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - SHAMSUL: Systematic Holistic Analysis to investigate Medical
Significance Utilizing Local interpretability methods in deep learning for
chest radiography pathology prediction [1.0138723409205497]
局所的解釈可能なモデル非依存説明法(LIME)、共有付加的説明法(SHAP)、グラディエント重み付きクラス活性化マッピング(Grad-CAM)、レイヤワイド関連伝搬法(LRP)の4つの方法の適用について検討した。
本分析では, 単一ラベルと多ラベルの予測を両方含み, 定量的, 定性的な調査を通じて包括的かつ不偏な評価を行い, 人的専門家のアノテーションと比較した。
論文 参考訳(メタデータ) (2023-07-16T11:10:35Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Two-step interpretable modeling of Intensive Care Acquired Infections [0.0]
本稿では,高解像度長手データと生存モデルの動的予測機能を統合するための新しい手法を提案する。
モデルの解釈可能性を維持しながら予測力を向上すること。
論文 参考訳(メタデータ) (2023-01-26T14:54:17Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Convolutional Motif Kernel Networks [1.104960878651584]
我々のモデルは、小さなデータセットでしっかりと学習でき、関連する医療予測タスクで最先端のパフォーマンスを達成できることを示す。
提案手法はDNAおよびタンパク質配列に利用することができる。
論文 参考訳(メタデータ) (2021-11-03T15:06:09Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Deep Transparent Prediction through Latent Representation Analysis [0.0]
本稿では,訓練されたディープニューラルネットワーク(DNN)から潜時情報を抽出し,予測目的のために効果的で統一された方法で解析された簡潔な表現を導出する,新しいディープラーニング手法を提案する。
透明性と高い予測精度を組み合わせることが、提案手法の目標である。
論文 参考訳(メタデータ) (2020-09-13T19:21:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。