論文の概要: Weakly-supervised Medical Image Segmentation with Gaze Annotations
- arxiv url: http://arxiv.org/abs/2407.07406v1
- Date: Wed, 10 Jul 2024 07:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 17:41:30.225357
- Title: Weakly-supervised Medical Image Segmentation with Gaze Annotations
- Title(参考訳): 注視アノテーションを用いた弱監督型医用画像分割法
- Authors: Yuan Zhong, Chenhui Tang, Yumeng Yang, Ruoxi Qi, Kang Zhou, Yuqi Gong, Pheng Ann Heng, Janet H. Hsiao, Qi Dou,
- Abstract要約: 人間の観察パターンを明らかにする視線は、視覚タスクのソリューションにますます取り入れられている。
本稿では, 医用画像のセグメンテーションにおいて, 医用画像のセグメンテーションを集中的に管理する手法を提案する。
本研究では,複数のネットワークを識別的人間の注意から訓練する多層フレームワークを提案する。
医用セグメンテーションデータセットの拡張として,GazeMedSegと題する高品質な視線データセットをコントリビュートする。
- 参考スコア(独自算出の注目度): 46.32764942078478
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eye gaze that reveals human observational patterns has increasingly been incorporated into solutions for vision tasks. Despite recent explorations on leveraging gaze to aid deep networks, few studies exploit gaze as an efficient annotation approach for medical image segmentation which typically entails heavy annotating costs. In this paper, we propose to collect dense weak supervision for medical image segmentation with a gaze annotation scheme. To train with gaze, we propose a multi-level framework that trains multiple networks from discriminative human attention, simulated with a set of pseudo-masks derived by applying hierarchical thresholds on gaze heatmaps. Furthermore, to mitigate gaze noise, a cross-level consistency is exploited to regularize overfitting noisy labels, steering models toward clean patterns learned by peer networks. The proposed method is validated on two public medical datasets of polyp and prostate segmentation tasks. We contribute a high-quality gaze dataset entitled GazeMedSeg as an extension to the popular medical segmentation datasets. To the best of our knowledge, this is the first gaze dataset for medical image segmentation. Our experiments demonstrate that gaze annotation outperforms previous label-efficient annotation schemes in terms of both performance and annotation time. Our collected gaze data and code are available at: https://github.com/med-air/GazeMedSeg.
- Abstract(参考訳): 人間の観察パターンを明らかにする視線は、視覚タスクのソリューションにますます取り入れられている。
ディープ・ネットワークを支援するために視線を利用する最近の研究にもかかわらず、医療画像のセグメンテーションのための効果的なアノテーションアプローチとして、視線を利用する研究はほとんどない。
本稿では, 医用画像のセグメンテーションにおいて, 医用画像のセグメンテーションを集中的に管理する手法を提案する。
本研究では,複数のネットワークを識別的人間の注意から訓練するマルチレベルフレームワークを提案する。
さらに、視線ノイズを軽減するために、ピアネットワークが学習したクリーンパターンに対するステアリングモデルにより、ノイズラベルの過度な適合を規則化するために、クロスレベル整合性を利用する。
提案手法は,ポリプと前立腺のセグメンテーションタスクの2つの公開医療データセット上で検証された。
医用セグメンテーションデータセットの拡張として,GazeMedSegと題する高品質な視線データセットをコントリビュートする。
私たちの知る限りでは、医療画像セグメンテーションのための最初の視線データセットである。
実験により, 注視アノテーションは, 従来のラベル効率のよいアノテーション手法よりも, 性能とアノテーションの両面で優れていることが示された。
収集したGearデータとコードは、https://github.com/med-air/GazeMedSeg.comで入手可能です。
関連論文リスト
- UnSegMedGAT: Unsupervised Medical Image Segmentation using Graph Attention Networks Clustering [10.862430265350804]
事前学習したDino-ViTを用いた教師なしセグメンテーションフレームワークを提案する。
医用画像のセグメンテーションにおける顕著な性能向上を実現するために,画像内のグラフ構造を利用する。
提案手法は,MedSAM などの既存の(セミ)手法をはるかに上回ったり,マッチさせたりすることで,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-04T10:42:21Z) - Eye-gaze Guided Multi-modal Alignment for Medical Representation Learning [65.54680361074882]
アイゲイズガイドマルチモーダルアライメント(EGMA)フレームワークは、アイゲイズデータを利用して、医用視覚的特徴とテキスト的特徴のアライメントを改善する。
我々は4つの医療データセット上で画像分類と画像テキスト検索の下流タスクを行う。
論文 参考訳(メタデータ) (2024-03-19T03:59:14Z) - Explanations of Classifiers Enhance Medical Image Segmentation via
End-to-end Pre-training [37.11542605885003]
医用画像セグメンテーションは、ディープニューラルネットワークを用いて、胸部X線写真などの医用画像の異常な構造を特定し、発見することを目的としている。
我々の研究は、よく訓練された分類器から説明を集め、セグメンテーションタスクの擬似ラベルを生成する。
次に、インテグレート・グラディエント(IG)法を用いて、分類器から得られた説明を蒸留し、強化し、大規模診断指向のローカライゼーション・ラベル(DoLL)を生成する。
これらのDLLアノテーション付き画像は、新型コロナウイルス感染症、肺、心臓、鎖骨などの下流のセグメンテーションタスクのために、モデルを微調整する前に事前訓練するために使用される。
論文 参考訳(メタデータ) (2024-01-16T16:18:42Z) - Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Scribble-Supervised Medical Image Segmentation via Dual-Branch Network
and Dynamically Mixed Pseudo Labels Supervision [15.414578073908906]
単純で効率的なスクリブル教師付き画像分割法を提案し,それを心臓MRIセグメント化に適用する。
このスクリブル・インスペクションと補助擬似ラベル・インスペクションを組み合わせることで、デュアルブランチ・ネットワークは、スクリブル・アノテーションからエンドツーエンドまで効率的に学習することができる。
論文 参考訳(メタデータ) (2022-03-04T02:50:30Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Every Annotation Counts: Multi-label Deep Supervision for Medical Image
Segmentation [85.0078917060652]
この障壁を克服する半弱教師付きセグメンテーションアルゴリズムを提案する。
このアプローチは,深層指導と生徒・教師モデルの新しい定式化に基づいている。
我々の新しいセグメンテーションのトレーニング体制は、完全にラベル付けされ、バウンディングボックスでマークされた画像、単にグローバルラベル、あるいは全くないイメージを柔軟に活用することで、高価なラベルの要件を94.22%削減することができる。
論文 参考訳(メタデータ) (2021-04-27T14:51:19Z) - Weakly-Supervised Segmentation for Disease Localization in Chest X-Ray
Images [0.0]
医用胸部X線画像のセマンティックセグメンテーションに対する新しいアプローチを提案する。
本手法は肺と胸壁の間の異常な空気量を検出するための胸部X線検査に適用可能である。
論文 参考訳(メタデータ) (2020-07-01T20:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。