論文の概要: Prototype Learning for Out-of-Distribution Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2308.03709v1
- Date: Mon, 7 Aug 2023 16:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 12:42:28.446913
- Title: Prototype Learning for Out-of-Distribution Polyp Segmentation
- Title(参考訳): 分散ポリプセグメンテーションのためのプロトタイプ学習
- Authors: Nikhil Kumar Tomar, Debesh Jha, Ulas Bagci
- Abstract要約: 大腸内視鏡画像からの既存のポリプセグメンテーションモデルは、しばしば異なる中心からのデータセットに対する信頼性の高いセグメンテーション結果の提供に失敗する。
当社のモデルは,複数のセンタからのアウト・オブ・ディストリビューション(OOD)データセットを効果的に処理するように設計されている。
PrototypeLabは、ダイス係数が$geq$90%、mIoU $geq$85%、ポリプセグメンテーションのほぼリアルタイム処理速度を備えた有望なソリューションを提供する。
- 参考スコア(独自算出の注目度): 2.6179759969345002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing polyp segmentation models from colonoscopy images often fail to
provide reliable segmentation results on datasets from different centers,
limiting their applicability. Our objective in this study is to create a robust
and well-generalized segmentation model named PrototypeLab that can assist in
polyp segmentation. To achieve this, we incorporate various lighting modes such
as White light imaging (WLI), Blue light imaging (BLI), Linked color imaging
(LCI), and Flexible spectral imaging color enhancement (FICE) into our new
segmentation model, that learns to create prototypes for each class of object
present in the images. These prototypes represent the characteristic features
of the objects, such as their shape, texture, color. Our model is designed to
perform effectively on out-of-distribution (OOD) datasets from multiple
centers. We first generate a coarse mask that is used to learn prototypes for
the main object class, which are then employed to generate the final
segmentation mask. By using prototypes to represent the main class, our
approach handles the variability present in the medical images and generalize
well to new data since prototype capture the underlying distribution of the
data. PrototypeLab offers a promising solution with a dice coefficient of
$\geq$ 90\% and mIoU $\geq$ 85\% with a near real-time processing speed for
polyp segmentation. It achieved superior performance on OOD datasets compared
to 16 state-of-the-art image segmentation architectures, potentially improving
clinical outcomes. Codes are available at
https://github.com/xxxxx/PrototypeLab.
- Abstract(参考訳): 大腸内視鏡画像からの既存のポリプセグメンテーションモデルは、しばしば異なる中心からのデータセットに対して信頼性の高いセグメンテーション結果を提供しず、適用性を制限する。
本研究の目的は,Polypセグメンテーションを支援する,PrototypeLabという,堅牢で汎用的なセグメンテーションモデルを構築することである。
これを実現するために,白色光イメージング (wli), 青色光イメージング (bli), リンクカラーイメージング (lci), フレキシブルスペクトル画像色強調 (fice) などの様々な照明モードを新しいセグメンテーションモデルに導入し, 画像に存在する各種類の物体のプロトタイプの作成を学習した。
これらのプロトタイプは、形状、テクスチャ、色などのオブジェクトの特徴を表している。
当社のモデルは,複数のセンタからのアウト・オブ・ディストリビューション(OOD)データセットを効果的に実行するように設計されている。
まず、メインオブジェクトクラスのプロトタイプを学ぶために使用される粗いマスクを生成し、その後、最終的なセグメンテーションマスクを生成するために使用します。
プロトタイプを使用してメインクラスを表現することにより,医療画像に存在する変動を処理し,prototypeが基礎となるデータの分布をキャプチャするので,新たなデータへの一般化を行う。
PrototypeLabは、ダイス係数が$\geq$90\%、mIoU$\geq$85\%、ポリプセグメンテーションのほぼリアルタイム処理速度の有望なソリューションを提供する。
OODデータセットでは16の最先端画像セグメンテーションアーキテクチャと比較して優れた性能を示し、臨床成績が向上する可能性がある。
コードはhttps://github.com/xxxxx/PrototypeLabで入手できる。
関連論文リスト
- Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - Correlation Weighted Prototype-based Self-Supervised One-Shot Segmentation of Medical Images [12.365801596593936]
医用画像セグメンテーションは、十分な注釈付きデータが入手できない領域の1つである。
スーパーピクセルから生成された擬似ラベルを用いた,プロトタイプベースのワンショット学習フレームワークを提案する。
提案手法は,最先端の手法と同等に機能することを示す。
論文 参考訳(メタデータ) (2024-08-12T15:38:51Z) - ProtoSAM: One-Shot Medical Image Segmentation With Foundational Models [29.781228739479893]
ProtoSAMは、ワンショットの医療画像セグメンテーションのための新しいフレームワークである。
これは、数ショットセグメンテーションで知られているプロトタイプネットワークと、自然画像基盤モデルSAMの併用である。
論文 参考訳(メタデータ) (2024-07-09T17:04:08Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。