論文の概要: CUTS: A Fully Unsupervised Framework for Medical Image Segmentation
- arxiv url: http://arxiv.org/abs/2209.11359v1
- Date: Fri, 23 Sep 2022 01:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 16:40:46.932773
- Title: CUTS: A Fully Unsupervised Framework for Medical Image Segmentation
- Title(参考訳): cuts: 医療用画像セグメンテーションのための教師なしフレームワーク
- Authors: Matthew Amodio, Feng Gao, Arman Avesta, Sanjay Aneja, Lucian V. Del
Priore, Jay Wang, Smita Krishnaswamy
- Abstract要約: 医用画像セグメンテーションのための完全教師なしディープラーニングフレームワークCUTS(Contrastive and Unsupervised Training for Contrastive and Unsupervised Training for)を紹介する。
私たちは、ピクセル中心のパッチレベルで機能する、完全に教師なしのフレームワークを初めて構築します。
具体的には、新しい拡張、パッチ再構築の損失を追加し、新しいピクセルクラスタリングと識別フレームワークを導入します。
- 参考スコア(独自算出の注目度): 9.908014457704033
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we introduce CUTS (Contrastive and Unsupervised Training for
Segmentation) the first fully unsupervised deep learning framework for medical
image segmentation, facilitating the use of the vast majority of imaging data
that is not labeled or annotated. Segmenting medical images into regions of
interest is a critical task for facilitating both patient diagnoses and
quantitative research. A major limiting factor in this segmentation is the lack
of labeled data, as getting expert annotations for each new set of imaging data
or task can be expensive, labor intensive, and inconsistent across annotators:
thus, we utilize self-supervision based on pixel-centered patches from the
images themselves. Our unsupervised approach is based on a training objective
with both contrastive learning and autoencoding aspects. Previous contrastive
learning approaches for medical image segmentation have focused on image-level
contrastive training, rather than our intra-image patch-level approach or have
used this as a pre-training task where the network needed further supervised
training afterwards. By contrast, we build the first entirely unsupervised
framework that operates at the pixel-centered-patch level. Specifically, we add
novel augmentations, a patch reconstruction loss, and introduce a new pixel
clustering and identification framework. Our model achieves improved results on
several key medical imaging tasks, as verified by held-out expert annotations
on the task of segmenting geographic atrophy (GA) regions of images of the
retina.
- Abstract(参考訳): 本研究では,医療画像分割のための教師なしディープラーニングフレームワークであるcuts(contrastive and unsupervised training for segmentation)を紹介し,ラベル付けや注釈付けされていない画像データの大部分の使用を容易にする。
医学的イメージを関心のある領域に分割することは、患者の診断と定量的研究を促進する重要な課題である。
このセグメンテーションにおける大きな制限要因は、ラベル付きデータの欠如である。新しい画像データやタスクのセットに専門家のアノテーションを付けることは、アノテータ間のコスト、労働集約、一貫性がない可能性があるため、画像自体からのピクセル中心のパッチに基づいた自己監督を利用する。
教師なしのアプローチは、コントラスト学習と自動エンコーディングの両方を備えたトレーニング目標に基づいている。
医用画像セグメンテーションのための従来のコントラスト学習アプローチは、画像内パッチレベルのアプローチよりも、画像レベルのコントラストトレーニングに重点を置いてきたり、ネットワークがその後の教師付きトレーニングを必要とする事前トレーニングタスクとして使用したりしてきた。
対照的に、ピクセル中心のパッチレベルで機能する、教師なしの初めてのフレームワークを構築します。
具体的には,新たな拡張やパッチの再構成損失,新たなピクセルクラスタリングと識別フレームワークの導入などを行う。
本モデルでは,網膜画像の地理的萎縮領域(GA)のセグメンテーションに関する専門的アノテーションによって検証され,いくつかの重要な医用画像タスクにおける改善された結果が得られた。
関連論文リスト
- Exploring Transfer Learning in Medical Image Segmentation using
Vision-Language Models [0.9324036842528547]
本稿では,VLSMの2次元医用画像への変換学習に関する最初のベンチマーク研究について述べる。
以上の結果から,VLSMは自然画像とテキストのペアで訓練され,ゼロショット設定で医療領域に合理的に移行することが示唆された。
しかし、微調整中の言語プロンプトのさらなる利点は限られているかもしれない。
論文 参考訳(メタデータ) (2023-08-15T11:28:21Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - M$^{2}$SNet: Multi-scale in Multi-scale Subtraction Network for Medical
Image Segmentation [73.10707675345253]
医用画像から多様なセグメンテーションを仕上げるマルチスケールサブトラクションネットワーク(M$2$SNet)を提案する。
本手法は,4つの異なる医用画像セグメンテーションタスクの11つのデータセットに対して,異なる評価基準の下で,ほとんどの最先端手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2023-03-20T06:26:49Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - PCRLv2: A Unified Visual Information Preservation Framework for
Self-supervised Pre-training in Medical Image Analysis [56.63327669853693]
本稿では,ピクセルレベルの情報を高レベルなセマンティクスに明示的にエンコードするための画素復元タスクを提案する。
また,画像理解を支援する強力なツールであるスケール情報の保存についても検討する。
提案されている統合SSLフレームワークは、さまざまなタスクで自己管理されたフレームワークを超越している。
論文 参考訳(メタデータ) (2023-01-02T17:47:27Z) - Mixed-UNet: Refined Class Activation Mapping for Weakly-Supervised
Semantic Segmentation with Multi-scale Inference [28.409679398886304]
我々は、デコードフェーズに2つの並列分岐を持つMixed-UNetという新しいモデルを開発する。
地域病院や公開データセットから収集したデータセットに対して,いくつかの一般的なディープラーニングに基づくセグメンテーションアプローチに対して,設計したMixed-UNetを評価した。
論文 参考訳(メタデータ) (2022-05-06T08:37:02Z) - A Spatial Guided Self-supervised Clustering Network for Medical Image
Segmentation [16.448375091671004]
医用画像分割のための空間ガイド型自己監視クラスタリングネットワーク(SGSCN)を提案する。
単一の画像から、各ピクセルの特徴表現とクラスタリングの割り当てをエンドツーエンドで反復的に学習する。
本手法を2つの公開医用画像データセット上で評価し,従来の自己監督型クラスタリング法と比較した。
論文 参考訳(メタデータ) (2021-07-11T00:40:40Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Uncertainty-aware multi-view co-training for semi-supervised medical
image segmentation and domain adaptation [35.33425093398756]
ラベルのないデータは、注釈付きデータよりもはるかに簡単に取得できる。
医用画像セグメンテーションのための不確実性を考慮したマルチビュー協調トレーニングを提案する。
我々のフレームワークは、ラベルのないデータを効率的に活用してパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2020-06-28T22:04:54Z) - Robust Medical Instrument Segmentation Challenge 2019 [56.148440125599905]
腹腔鏡装置の術中追跡は、しばしばコンピュータとロボットによる介入の必要条件である。
本研究の課題は,30の手術症例から取得した10,040枚の注釈画像からなる外科的データセットに基づいていた。
結果は、初期仮説、すなわち、アルゴリズムの性能がドメインギャップの増大とともに低下することを確認する。
論文 参考訳(メタデータ) (2020-03-23T14:35:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。