論文の概要: Prototype Learning for Out-of-Distribution Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2308.03709v1
- Date: Mon, 7 Aug 2023 16:30:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 12:42:28.446913
- Title: Prototype Learning for Out-of-Distribution Polyp Segmentation
- Title(参考訳): 分散ポリプセグメンテーションのためのプロトタイプ学習
- Authors: Nikhil Kumar Tomar, Debesh Jha, Ulas Bagci
- Abstract要約: 大腸内視鏡画像からの既存のポリプセグメンテーションモデルは、しばしば異なる中心からのデータセットに対する信頼性の高いセグメンテーション結果の提供に失敗する。
当社のモデルは,複数のセンタからのアウト・オブ・ディストリビューション(OOD)データセットを効果的に処理するように設計されている。
PrototypeLabは、ダイス係数が$geq$90%、mIoU $geq$85%、ポリプセグメンテーションのほぼリアルタイム処理速度を備えた有望なソリューションを提供する。
- 参考スコア(独自算出の注目度): 2.6179759969345002
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing polyp segmentation models from colonoscopy images often fail to
provide reliable segmentation results on datasets from different centers,
limiting their applicability. Our objective in this study is to create a robust
and well-generalized segmentation model named PrototypeLab that can assist in
polyp segmentation. To achieve this, we incorporate various lighting modes such
as White light imaging (WLI), Blue light imaging (BLI), Linked color imaging
(LCI), and Flexible spectral imaging color enhancement (FICE) into our new
segmentation model, that learns to create prototypes for each class of object
present in the images. These prototypes represent the characteristic features
of the objects, such as their shape, texture, color. Our model is designed to
perform effectively on out-of-distribution (OOD) datasets from multiple
centers. We first generate a coarse mask that is used to learn prototypes for
the main object class, which are then employed to generate the final
segmentation mask. By using prototypes to represent the main class, our
approach handles the variability present in the medical images and generalize
well to new data since prototype capture the underlying distribution of the
data. PrototypeLab offers a promising solution with a dice coefficient of
$\geq$ 90\% and mIoU $\geq$ 85\% with a near real-time processing speed for
polyp segmentation. It achieved superior performance on OOD datasets compared
to 16 state-of-the-art image segmentation architectures, potentially improving
clinical outcomes. Codes are available at
https://github.com/xxxxx/PrototypeLab.
- Abstract(参考訳): 大腸内視鏡画像からの既存のポリプセグメンテーションモデルは、しばしば異なる中心からのデータセットに対して信頼性の高いセグメンテーション結果を提供しず、適用性を制限する。
本研究の目的は,Polypセグメンテーションを支援する,PrototypeLabという,堅牢で汎用的なセグメンテーションモデルを構築することである。
これを実現するために,白色光イメージング (wli), 青色光イメージング (bli), リンクカラーイメージング (lci), フレキシブルスペクトル画像色強調 (fice) などの様々な照明モードを新しいセグメンテーションモデルに導入し, 画像に存在する各種類の物体のプロトタイプの作成を学習した。
これらのプロトタイプは、形状、テクスチャ、色などのオブジェクトの特徴を表している。
当社のモデルは,複数のセンタからのアウト・オブ・ディストリビューション(OOD)データセットを効果的に実行するように設計されている。
まず、メインオブジェクトクラスのプロトタイプを学ぶために使用される粗いマスクを生成し、その後、最終的なセグメンテーションマスクを生成するために使用します。
プロトタイプを使用してメインクラスを表現することにより,医療画像に存在する変動を処理し,prototypeが基礎となるデータの分布をキャプチャするので,新たなデータへの一般化を行う。
PrototypeLabは、ダイス係数が$\geq$90\%、mIoU$\geq$85\%、ポリプセグメンテーションのほぼリアルタイム処理速度の有望なソリューションを提供する。
OODデータセットでは16の最先端画像セグメンテーションアーキテクチャと比較して優れた性能を示し、臨床成績が向上する可能性がある。
コードはhttps://github.com/xxxxx/PrototypeLabで入手できる。
関連論文リスト
- Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Rethinking Polyp Segmentation from an Out-of-Distribution Perspective [37.1338930936671]
マスク付き自己エンコーダ(再建作業で訓練された自己教師型視覚トランスフォーマー)を応用して,分布内表現を学習する。
種々の異常サンプルの潜伏分布と健常サンプルの統計値とを一致させるため,特徴空間の標準化を図り,アウト・オブ・ディストリビューションの再構築と推論を行った。
6つのベンチマークによる実験結果から,我々のモデルはセグメンテーション性能とデータセット間の一般化に優れていた。
論文 参考訳(メタデータ) (2023-06-13T14:13:16Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Prototype Guided Network for Anomaly Segmentation [5.504546777149307]
In-distriion training data のためのセマンティックプロトタイプを抽出するために, PGAN (Prototype Guided Anomaly segmentation Network) を提案する。
提案したPGANモデルはセマンティックセグメンテーションネットワークとプロトタイプ抽出ネットワークを含む。
StreetHazardsデータセットでは、提案されたPGANモデルは、異常セグメンテーションのためのmIoUを53.4%生成した。
論文 参考訳(メタデータ) (2022-01-15T15:07:38Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。