論文の概要: SUPRA: Superpixel Guided Loss for Improved Multi-modal Segmentation in
Endoscopy
- arxiv url: http://arxiv.org/abs/2211.04658v3
- Date: Sun, 9 Apr 2023 18:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 21:30:47.434343
- Title: SUPRA: Superpixel Guided Loss for Improved Multi-modal Segmentation in
Endoscopy
- Title(参考訳): 内視鏡下マルチモーダルセグメンテーション改善のための超ピクセル誘導損失法
- Authors: Rafael Martinez-Garcia-Pe\~na, Mansoor Ali Teevno, Gilberto
Ochoa-Ruiz, Sharib Ali
- Abstract要約: ドメインシフトは医療画像コミュニティでよく知られた問題である。
本稿では,そのようなシナリオでDL手法が利用可能となるための領域一般化手法について検討する。
その結果,本手法では,ベースラインに比べて目標領域の20%近くの改善が得られた。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain shift is a well-known problem in the medical imaging community. In
particular, for endoscopic image analysis where the data can have different
modalities the performance of deep learning (DL) methods gets adversely
affected. In other words, methods developed on one modality cannot be used for
a different modality. However, in real clinical settings, endoscopists switch
between modalities for better mucosal visualisation. In this paper, we explore
the domain generalisation technique to enable DL methods to be used in such
scenarios. To this extend, we propose to use super pixels generated with Simple
Linear Iterative Clustering (SLIC) which we refer to as "SUPRA" for SUPeRpixel
Augmented method. SUPRA first generates a preliminary segmentation mask making
use of our new loss "SLICLoss" that encourages both an accurate and
color-consistent segmentation. We demonstrate that SLICLoss when combined with
Binary Cross Entropy loss (BCE) can improve the model's generalisability with
data that presents significant domain shift. We validate this novel compound
loss on a vanilla U-Net using the EndoUDA dataset, which contains images for
Barret's Esophagus and polyps from two modalities. We show that our method
yields an improvement of nearly 20% in the target domain set compared to the
baseline.
- Abstract(参考訳): ドメインシフトは医療画像コミュニティでよく知られた問題である。
特に、データが異なるモダリティを持つ内視鏡画像解析では、ディープラーニング(DL)手法の性能に悪影響を及ぼす。
言い換えれば、1つのモダリティで開発されたメソッドは異なるモダリティには使用できない。
しかし、実際の臨床環境では、内視鏡医は粘膜の視認性を改善するためにモダリティを切り替える。
本稿では,このようなシナリオでdlメソッドを使用できるドメイン一般化手法について検討する。
この拡張のために, SUPeRpixel Augmented 法では "SUPRA" と呼ぶ, Simple Linear Iterative Clustering (SLIC) で生成されたスーパーピクセルを提案する。
supraはまず,新しい損失"スライス"を利用したプリミティブセグメンテーションマスクを生成し,精度と色に一貫性のあるセグメンテーションを奨励する。
SLICLossとバイナリクロスエントロピー損失(BCE)を組み合わせることで、大きなドメインシフトを示すデータによるモデルの一般化性を向上させることができることを示す。
本研究では,バレット食道とポリープの画像を含むEndoUDAデータセットを用いて,バニラU-Net上の新規化合物の損失を検証する。
その結果,本手法では,ベースラインに比べて目標領域の20%近くの改善が得られた。
関連論文リスト
- Domain Generalization for Endoscopic Image Segmentation by Disentangling Style-Content Information and SuperPixel Consistency [1.4991956341367338]
本稿では,インスタンス正規化とインスタンス選択白化(ISW)を用いて,ドメインの一般化を改善する手法を提案する。
本研究では,EndoUDA BarrettのEsophagusとEndoUDA polypsの2つのデータセットに対するアプローチを評価し,その性能を3つの最先端(SOTA)手法と比較した。
論文 参考訳(メタデータ) (2024-09-19T04:10:04Z) - Deep Learning Based Speckle Filtering for Polarimetric SAR Images. Application to Sentinel-1 [51.404644401997736]
本稿では、畳み込みニューラルネットワークを用いて偏光SAR画像のスペックルを除去するための完全なフレームワークを提案する。
実験により,提案手法はスペックル低減と分解能保存の両方において例外的な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2024-08-28T10:07:17Z) - Image-level Regression for Uncertainty-aware Retinal Image Segmentation [3.7141182051230914]
我々は,新たな不確実性認識変換(SAUNA)を導入する。
以上の結果から,SAUNA変換の統合とセグメント化損失は,異なるセグメンテーションモデルにおいて大きな性能向上をもたらすことが示唆された。
論文 参考訳(メタデータ) (2024-05-27T04:17:10Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Cross-Dataset Adaptation for Instrument Classification in Cataract
Surgery Videos [54.1843419649895]
特定のデータセットでこのタスクをうまく実行する最先端モデルでは、別のデータセットでテストすると、パフォーマンスが低下する。
本稿では,Barlow Adaptorと呼ばれる新しいエンドツーエンドのUnsupervised Domain Adaptation (UDA)手法を提案する。
さらに,BFAL(Barlow Feature Alignment Loss)と呼ばれる,異なるドメインにまたがる特徴を整列させる新たな損失を導入する。
論文 参考訳(メタデータ) (2023-07-31T18:14:18Z) - SwIPE: Efficient and Robust Medical Image Segmentation with Implicit Patch Embeddings [12.79344668998054]
正確な局所境界線とグローバルな形状コヒーレンスを実現するために,SwIPE(Segmentation with Implicit Patch Embeddings)を提案する。
その結果,最近の暗黙的アプローチよりもSwIPEは大幅に改善され,パラメータが10倍以上の最先端の離散手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-23T20:55:11Z) - Multi-domain stain normalization for digital pathology: A
cycle-consistent adversarial network for whole slide images [0.0]
本稿では,CycleGANに基づく染色正規化のためのマルチドメインアプローチであるMultiStain-CycleGANを提案する。
CycleGANの変更により、異なるモデルを再トレーニングしたり使用したりすることなく、異なる起源の画像の正規化が可能になります。
論文 参考訳(メタデータ) (2023-01-23T13:34:49Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Unsupervised Adversarial Domain Adaptation For Barrett's Segmentation [0.8602553195689513]
自動セグメンテーションは臨床内科医がバレットの食道領域をより正確に評価し治療するのに役立つ。
教師付きモデルは、トレーニングデータにすべてのデータ変動を組み込んだ大量の手動アノテーションを必要とします。
本稿では,unsupervised domain adaptation technique (uda) を適用することで,この問題を軽減することを目的とする。
その結果, UDA ベースのアプローチは, 従来の U-Net セグメント化を Dice 類似度係数と交差オーバーユニオンの両方で 10% 近く上回ることが示された。
論文 参考訳(メタデータ) (2020-12-09T20:59:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。