論文の概要: Weakly Supervised Pixel-Level Annotation with Visual Interpretability
- arxiv url: http://arxiv.org/abs/2502.17824v1
- Date: Tue, 25 Feb 2025 04:03:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:22:36.206554
- Title: Weakly Supervised Pixel-Level Annotation with Visual Interpretability
- Title(参考訳): 視覚的解釈性を備えた弱修正画素レベルアノテーション
- Authors: Basma Nasir, Tehseen Zia, Muhammad Nawaz, Catarina Moreira,
- Abstract要約: 本稿では,アンサンブル学習,視覚的説明可能性,不確実性定量化を統合した自動説明可能なアノテーションシステムを提案する。
提案手法では,事前学習した3つのディープラーニングモデル – ResNet50,EfficientNet,DenseNet – と,視覚的説明のためのXGrad-CAM,不確実性定量化のためのMonte Carlo Dropoutを組み合わせた。
実験の結果,本手法はベースラインモデルより優れ,TBX11Kでは93.04%,Fireデータセットでは96.4%の精度が得られた。
- 参考スコア(独自算出の注目度): 1.5035157506526693
- License:
- Abstract: Medical image annotation is essential for diagnosing diseases, yet manual annotation is time-consuming, costly, and prone to variability among experts. To address these challenges, we propose an automated explainable annotation system that integrates ensemble learning, visual explainability, and uncertainty quantification. Our approach combines three pre-trained deep learning models - ResNet50, EfficientNet, and DenseNet - enhanced with XGrad-CAM for visual explanations and Monte Carlo Dropout for uncertainty quantification. This ensemble mimics the consensus of multiple radiologists by intersecting saliency maps from models that agree on the diagnosis while uncertain predictions are flagged for human review. We evaluated our system using the TBX11K medical imaging dataset and a Fire segmentation dataset, demonstrating its robustness across different domains. Experimental results show that our method outperforms baseline models, achieving 93.04% accuracy on TBX11K and 96.4% accuracy on the Fire dataset. Moreover, our model produces precise pixel-level annotations despite being trained with only image-level labels, achieving Intersection over Union IoU scores of 36.07% and 64.7%, respectively. By enhancing the accuracy and interpretability of image annotations, our approach offers a reliable and transparent solution for medical diagnostics and other image analysis tasks.
- Abstract(参考訳): 医学的な画像アノテーションは病気の診断に不可欠であるが、手動のアノテーションは時間がかかり、コストがかかり、専門家の多様性が低下する傾向がある。
これらの課題に対処するために、アンサンブル学習、視覚的説明可能性、不確実性定量化を統合した自動説明可能なアノテーションシステムを提案する。
提案手法では,事前学習した3つのディープラーニングモデル – ResNet50,EfficientNet,DenseNet – と,視覚的説明のためのXGrad-CAM,不確実性定量化のためのMonte Carlo Dropoutを組み合わせた。
このアンサンブルは、診断に同意するモデルと、不確実な予測がヒトのレビューのためにフラグ付けされているモデルとを交差させることによって、複数の放射線学者のコンセンサスを模倣する。
TBX11Kの医療画像データセットとファイアセグメンテーションデータセットを用いてシステム評価を行い,その堅牢性について検証した。
実験の結果,本手法はベースラインモデルより優れ,TBX11Kでは93.04%,Fireデータセットでは96.4%の精度が得られた。
さらに,画像レベルのラベルのみをトレーニングしながら,正確なピクセルレベルのアノテーションを生成し,ユニオンIoUスコアの36.07%と64.7%のインターセクションを達成した。
画像アノテーションの精度と解釈性を向上させることにより,医用診断などの画像解析タスクに対して信頼性と透過性を備えたソリューションを提供する。
関連論文リスト
- Multi-task Learning Approach for Intracranial Hemorrhage Prognosis [0.0]
本稿では,Glasgow Coma Scale と Age の3次元マルチタスク画像モデルを提案する。
提案手法は現状のベースライン画像モデルより優れており,CTスキャンのみを入力として用いた4名の脳神経科医と比較してICH予後に優れていた。
論文 参考訳(メタデータ) (2024-08-16T14:56:17Z) - Learning Generalized Medical Image Representations through Image-Graph Contrastive Pretraining [11.520404630575749]
胸部X線と構造化レポート知識グラフを組み合わせた画像グラフコントラスト学習フレームワークを開発した。
提案手法は,リレーショナルグラフ畳み込みネットワークとトランスフォーマーアテンションを介して,非連結グラフ成分を一意に符号化する。
論文 参考訳(メタデータ) (2024-05-15T12:27:38Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - FeaInfNet: Diagnosis in Medical Image with Feature-Driven Inference and
Visual Explanations [4.022446255159328]
解釈可能なディープラーニングモデルは、画像認識の分野で広く注目を集めている。
提案されている多くの解釈可能性モデルは、医用画像診断の精度と解釈性に問題がある。
これらの問題を解決するために,機能駆動型推論ネットワーク(FeaInfNet)を提案する。
論文 参考訳(メタデータ) (2023-12-04T13:09:00Z) - Graph Self-Supervised Learning for Endoscopic Image Matching [1.8275108630751844]
鍵点間の空間関係をモデル化するために,局所的な視覚的外観を捉える畳み込みニューラルネットワークと注目に基づくグラフニューラルネットワークを組み合わせた,新たな自己教師型アプローチを提案する。
我々のアプローチはラベル付きデータを必要とせず、完全に自己管理されたスキームで訓練されている。
提案手法は,最先端の手工法と深層学習法より優れ,精度(1)とマッチングスコア(99.3%)で優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:53:41Z) - Self-Supervised Learning as a Means To Reduce the Need for Labeled Data
in Medical Image Analysis [64.4093648042484]
胸部X線画像のデータセットとバウンディングボックスラベルを用いて,13種類の異常の分類を行った。
ラベル付きデータの平均精度と精度を60%に抑えることで,完全教師付きモデルと同等の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-06-01T09:20:30Z) - Uncertainty Quantification in Medical Image Segmentation with
Multi-decoder U-Net [3.961279440272763]
医用画像のセグメンテーションの不確かさを,教師付き学習方式で複数のアノテーションを用いたセグメンテーション性能の測定により評価する。
複数のデコーダを持つU-Netアーキテクチャを提案し、画像表現を同じエンコーダで符号化し、各アノテーションを参照するセグメンテーションを複数のデコーダで推定する。
提案アーキテクチャはエンドツーエンドでトレーニングされ、予測の不確実性推定を改善することができる。
論文 参考訳(メタデータ) (2021-09-15T01:46:29Z) - Cascaded Robust Learning at Imperfect Labels for Chest X-ray
Segmentation [61.09321488002978]
不完全アノテーションを用いた胸部X線分割のための新しいカスケードロバスト学習フレームワークを提案する。
モデルは3つの独立したネットワークから成り,ピアネットワークから有用な情報を効果的に学習できる。
提案手法は,従来の手法と比較して,セグメント化タスクの精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-05T15:50:16Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。