論文の概要: Mask-Free Neuron Concept Annotation for Interpreting Neural Networks in Medical Domain
- arxiv url: http://arxiv.org/abs/2407.11375v1
- Date: Tue, 16 Jul 2024 04:40:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 18:32:32.325504
- Title: Mask-Free Neuron Concept Annotation for Interpreting Neural Networks in Medical Domain
- Title(参考訳): 医療領域におけるニューラルネットワーク解釈のためのマスクフリーニューロン概念アノテーション
- Authors: Hyeon Bae Kim, Yong Hyun Ahn, Seong Tae Kim,
- Abstract要約: Mask-free Medical Model Interpretation (MAMMI)は、新しい医療ニューロン概念アノテーション法である。
視覚言語モデルを用いて,ニューロン概念アノテーションのためのピクセルレベルのマスクの必要性を緩和する。
NIH胸部X線で訓練したモデルを用いた実験により, MAMMIの有効性が検証された。
- 参考スコア(独自算出の注目度): 3.2627279988912194
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent advancements in deep neural networks have shown promise in aiding disease diagnosis and medical decision-making. However, ensuring transparent decision-making processes of AI models in compliance with regulations requires a comprehensive understanding of the model's internal workings. However, previous methods heavily rely on expensive pixel-wise annotated datasets for interpreting the model, presenting a significant drawback in medical domains. In this paper, we propose a novel medical neuron concept annotation method, named Mask-free Medical Model Interpretation (MAMMI), addresses these challenges. By using a vision-language model, our method relaxes the need for pixel-level masks for neuron concept annotation. MAMMI achieves superior performance compared to other interpretation methods, demonstrating its efficacy in providing rich representations for neurons in medical image analysis. Our experiments on a model trained on NIH chest X-rays validate the effectiveness of MAMMI, showcasing its potential for transparent clinical decision-making in the medical domain. The code is available at https://github.com/ailab-kyunghee/MAMMI.
- Abstract(参考訳): ディープニューラルネットワークの最近の進歩は、病気の診断と医療的意思決定を支援することの公約を示している。
しかし、規則に準拠したAIモデルの透明な意思決定プロセスを保証するには、モデルの内部動作の包括的な理解が必要である。
しかし、従来の手法は、モデルを解釈するための高価なピクセル単位の注釈付きデータセットに大きく依存しており、医療領域において大きな欠点が示される。
本稿では,Mask-free Medical Model Interpretation (MAMMI) という新しい医療ニューロン概念アノテーション手法を提案する。
視覚言語モデルを用いて,ニューロン概念アノテーションのためのピクセルレベルのマスクの必要性を緩和する。
MAMMIは他の解釈法に比べて優れた性能を示し、医用画像解析においてニューロンに豊かな表現を提供することの有効性を示した。
NIH胸部X線で訓練したモデルを用いて,MAMMIの有効性を検証し,医療領域における透明な臨床診断の可能性を示した。
コードはhttps://github.com/ailab-kyunghee/MAMMIで公開されている。
関連論文リスト
- Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - FeaInfNet: Diagnosis in Medical Image with Feature-Driven Inference and
Visual Explanations [4.022446255159328]
解釈可能なディープラーニングモデルは、画像認識の分野で広く注目を集めている。
提案されている多くの解釈可能性モデルは、医用画像診断の精度と解釈性に問題がある。
これらの問題を解決するために,機能駆動型推論ネットワーク(FeaInfNet)を提案する。
論文 参考訳(メタデータ) (2023-12-04T13:09:00Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Unsupervised Anomaly Detection in Medical Images Using Masked Diffusion
Model [7.116982044576858]
Masked Image Modeling (MIM) と Masked Frequency Modeling (MFM) は、モデルがラベルのないデータから視覚表現を学習できるようにする自己教師型アプローチである。
腫瘍と多発性硬化症病変を含むデータセットについて検討した。
論文 参考訳(メタデータ) (2023-05-31T14:04:11Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - Explaining Predictions of Deep Neural Classifier via Activation Analysis [0.11470070927586014]
本稿では,畳み込みニューラルネットワーク(CNN)に基づく深層学習システムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
論文 参考訳(メタデータ) (2020-12-03T20:36:19Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z) - Explainable Deep CNNs for MRI-Based Diagnosis of Alzheimer's Disease [3.3948742816399693]
脳磁気共鳴画像(MRI)を用いたアルツハイマー病(AD)の半自動診断モデルとして,Deep Convolutional Neural Networks(CNN)が注目されている。
脳スキャンタスクに特化して設計された別の説明法を提案する。
スワップテスト(Swap Test)と呼ばれる本手法は,ADを最も表す脳の領域を表わしたヒートマップを作成し,臨床医に理解可能な形式でモデル決定の解釈可能性を提供する。
論文 参考訳(メタデータ) (2020-04-25T18:14:49Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。