論文の概要: GFSR-Net: Guided Focus via Segment-Wise Relevance Network for Interpretable Deep Learning in Medical Imaging
- arxiv url: http://arxiv.org/abs/2510.01919v1
- Date: Thu, 02 Oct 2025 11:35:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.108417
- Title: GFSR-Net: Guided Focus via Segment-Wise Relevance Network for Interpretable Deep Learning in Medical Imaging
- Title(参考訳): GFSR-Net:医療画像における深層学習のためのセグメンテーションワイズ関連ネットワークによる焦点誘導
- Authors: Jhonatan Contreras, Thomas Bocklitz,
- Abstract要約: 医用画像の解釈性や信頼性を向上させるために,GFSR-Netによるガイドフォーカスを導入する。
GFSR-Netは、正確な境界や徹底的なマーキングを必要とせず、画像内の焦点を直感的に近似するために、少数の人間のアノテーションを使用する。
実験により、GFSRは人間の期待をよりよく反映したサリエンシマップを作成しながら、同等または優れた精度を達成することが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning has achieved remarkable success in medical image analysis, however its adoption in clinical practice is limited by a lack of interpretability. These models often make correct predictions without explaining their reasoning. They may also rely on image regions unrelated to the disease or visual cues, such as annotations, that are not present in real-world conditions. This can reduce trust and increase the risk of misleading diagnoses. We introduce the Guided Focus via Segment-Wise Relevance Network (GFSR-Net), an approach designed to improve interpretability and reliability in medical imaging. GFSR-Net uses a small number of human annotations to approximate where a person would focus within an image intuitively, without requiring precise boundaries or exhaustive markings, making the process fast and practical. During training, the model learns to align its focus with these areas, progressively emphasizing features that carry diagnostic meaning. This guidance works across different types of natural and medical images, including chest X-rays, retinal scans, and dermatological images. Our experiments demonstrate that GFSR achieves comparable or superior accuracy while producing saliency maps that better reflect human expectations. This reduces the reliance on irrelevant patterns and increases confidence in automated diagnostic tools.
- Abstract(参考訳): 深層学習は医用画像解析において顕著な成功を収めてきたが、その臨床実践における採用は解釈可能性の欠如によって制限されている。
これらのモデルは、しばしばそれらの推論を説明することなく正しい予測を行う。
また、現実の環境では存在しないアノテーションのような病気や視覚的手がかりとは無関係な画像領域にも依存する可能性がある。
これは信頼を減らし、誤診のリスクを増大させる。
本稿では,医用画像の解釈可能性と信頼性を向上させるために,GFSR-Netによるガイドフォーカスを導入する。
GFSR-Netは少数の人間のアノテーションを使用して、正確な境界や徹底的なマーキングを必要とせず、画像内の焦点を直感的に近似する。
トレーニング中、モデルはこれらの領域に焦点を合わせることを学び、診断の意味を持つ特徴を徐々に強調する。
このガイダンスは、胸部X線、網膜スキャン、皮膚科的画像など、さまざまな種類の自然および医学的画像にまたがる。
実験の結果,GFSRは人間の期待を反映したサリエンシマップを作成しながら,同等あるいは優れた精度を達成できることがわかった。
これにより、無関係なパターンへの依存が軽減され、自動診断ツールへの信頼が高まる。
関連論文リスト
- Bayesian Deep Learning Approaches for Uncertainty-Aware Retinal OCT Image Segmentation for Multiple Sclerosis [0.0]
光コヒーレンス・トモグラフィ(OCT)は眼科、心臓科、神経学の貴重な知見を提供する。
OCTを用いた眼科医にとって重要な課題は、スキャン内の網膜層のデライン化である。
深層学習を用いたデライン作成の自動化に向けた従来の取り組みは、臨床医や統計学者の獲得に困難を呈している。
論文 参考訳(メタデータ) (2025-05-17T15:56:17Z) - From Gaze to Insight: Bridging Human Visual Attention and Vision Language Model Explanation for Weakly-Supervised Medical Image Segmentation [46.99748372216857]
視覚言語モデル(VLM)は、テキスト記述を通して意味的コンテキストを提供するが、説明精度は欠如している。
本稿では,その補完的強みを活かし,視線と言語指導を統合した教師教育フレームワークを提案する。
本手法は,8.78%,80.53%,84.22%のDiceスコアをそれぞれ達成し,アノテーション負担を増大させることなく視線ベースラインよりも3.5%向上した。
論文 参考訳(メタデータ) (2025-04-15T16:32:15Z) - Trustworthy image-to-image translation: evaluating uncertainty calibration in unpaired training scenarios [0.0]
マンモグラフィスクリーニングは乳がんの検出に有効な方法であり、早期診断を容易にする。
ディープニューラルネットワークはいくつかの研究で有効であることが示されているが、その傾向は一般化と誤診のリスクをかなり残している。
汎用性を向上させるために、未ペア型ニューラルスタイル転送モデルに基づくデータ拡張スキームが提案されている。
3つのオープンアクセスマンモグラフィーデータセットと1つの非医療画像データセットから解析した画像パッチを用いて、それらの性能を評価する。
論文 参考訳(メタデータ) (2025-01-29T11:09:50Z) - MAPUNetR: A Hybrid Vision Transformer and U-Net Architecture for Efficient and Interpretable Medical Image Segmentation [0.0]
本稿では,医用画像セグメンテーションのためのU-Netフレームワークを用いて,トランスフォーマーモデルの強度を相乗化する新しいアーキテクチャMAPUNetRを紹介する。
本モデルでは,分解能保存課題に対処し,セグメンテーションされた領域に着目したアテンションマップを導入し,精度と解釈可能性を高める。
臨床実習における医用画像セグメンテーションの強力なツールとして,本モデルが安定した性能と可能性を維持していることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:52:57Z) - Analyzing the Effect of $k$-Space Features in MRI Classification Models [0.0]
医用イメージングに適した説明可能なAI手法を開発した。
我々は、画像領域と周波数領域の両方にわたるMRIスキャンを分析する畳み込みニューラルネットワーク(CNN)を採用している。
このアプローチは、初期のトレーニング効率を高めるだけでなく、追加機能がモデル予測にどのように影響するかの理解を深めます。
論文 参考訳(メタデータ) (2024-09-20T15:43:26Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。