論文の概要: MixPolyp: Integrating Mask, Box and Scribble Supervision for Enhanced Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2409.16774v1
- Date: Wed, 25 Sep 2024 09:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 04:40:43.969408
- Title: MixPolyp: Integrating Mask, Box and Scribble Supervision for Enhanced Polyp Segmentation
- Title(参考訳): MixPolyp: ポリプセグメンテーション強化のためのマスク, ボックス, スクリブルスーパービジョンの統合
- Authors: Yiwen Hu, Jun Wei, Yuncheng Jiang, Haoyang Li, Shuguang Cui, Zhen Li, Song Wu,
- Abstract要約: MixPolypは、さまざまなアノテーションタイプ(マスク、ボックス、スクリブル)を単一のモデルに結合する。
様々なアノテーションを扱うために、3つの新しい監視損失が導入された。
5つのデータセットの実験では、MixPolypの有効性が示されている。
- 参考スコア(独自算出の注目度): 45.81056373994976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limited by the expensive labeling, polyp segmentation models are plagued by data shortages. To tackle this, we propose the mixed supervised polyp segmentation paradigm (MixPolyp). Unlike traditional models relying on a single type of annotation, MixPolyp combines diverse annotation types (mask, box, and scribble) within a single model, thereby expanding the range of available data and reducing labeling costs. To achieve this, MixPolyp introduces three novel supervision losses to handle various annotations: Subspace Projection loss (L_SP), Binary Minimum Entropy loss (L_BME), and Linear Regularization loss (L_LR). For box annotations, L_SP eliminates shape inconsistencies between the prediction and the supervision. For scribble annotations, L_BME provides supervision for unlabeled pixels through minimum entropy constraint, thereby alleviating supervision sparsity. Furthermore, L_LR provides dense supervision by enforcing consistency among the predictions, thus reducing the non-uniqueness. These losses are independent of the model structure, making them generally applicable. They are used only during training, adding no computational cost during inference. Extensive experiments on five datasets demonstrate MixPolyp's effectiveness.
- Abstract(参考訳): 高価なラベル付けによって制限されたポリプセグメンテーションモデルは、データ不足に悩まされている。
そこで本研究では,MixPolyp(MixPolyp)という複合教師付きポリープセグメンテーションパラダイムを提案する。
従来のモデルでは1種類のアノテーションに依存していたが、MixPolypは1つのモデルにさまざまなアノテーションタイプ(マスク、ボックス、スクリブル)を組み合わせることで、利用可能なデータの範囲を拡大し、ラベリングコストを削減している。
これを実現するために、MixPolypは、サブスペース投影損失(L_SP)、バイナリ最小エントロピー損失(L_BME)、線形正規化損失(L_LR)の3つの新しい監視損失を導入した。
ボックスアノテーションの場合、L_SPは予測と監督の整合性を排除します。
スクリブルアノテーションでは、L_BMEは最小エントロピー制約によるラベルなし画素の監督を提供するため、監督間隔を緩和する。
さらに、L_LRは、予測間の一貫性を強制することにより、密集した監視を提供する。
これらの損失はモデル構造とは独立であり、一般に適用できる。
トレーニング時にのみ使用され、推論時に計算コストを加算しない。
5つのデータセットに対する大規模な実験は、MixPolypの有効性を示している。
関連論文リスト
- ModelMix: A New Model-Mixup Strategy to Minimize Vicinal Risk across Tasks for Few-scribble based Cardiac Segmentation [32.19827368497988]
そこで本研究では,モデルパラメータをモデルパラメータとして用いたスクリブル教師付きセグメンテーションに対する新しいアプローチを提案する。
ModelMixは、別々のエンコーダから畳み込みパラメータの凸組み合わせを使って仮想モデルを構築する。
次に、教師なしとスクリブル付きの両方の方法で、タスク間のビジナルリスクを最小限に抑えるために、モデルセットを正規化します。
論文 参考訳(メタデータ) (2024-06-19T05:58:11Z) - PLReMix: Combating Noisy Labels with Pseudo-Label Relaxed Contrastive
Representation Learning [5.962428976778709]
本稿では,Pseudo-Label Relaxed (PLR) のコントラスト損失を導入することで,複雑なパイプラインを回避する,エンドツーエンドのPLReMixフレームワークを提案する。
PLR損失は、予測確率の上位kで重複する不適切な負のペアをフィルタリングすることで、各サンプルの信頼な負の集合を構成する。
提案するPLR損失はスケーラブルであり,他のLNL手法と容易に統合し,その性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-27T15:22:20Z) - Semi-Supervised Coupled Thin-Plate Spline Model for Rotation Correction and Beyond [84.56978780892783]
制御点が限られている複数のTPSを、より柔軟で強力な変換に繰り返し結合するCoupledTPSを提案する。
注記コストを考慮に入れた半教師付き学習手法を開発し、ラベルのないデータを活用することにより、ワープ品質を向上させる。
実験は、回転補正のための既存の最先端解よりもCoupledTPSの優位性と普遍性を示す。
論文 参考訳(メタデータ) (2024-01-24T13:03:28Z) - Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - ECC-PolypDet: Enhanced CenterNet with Contrastive Learning for Automatic
Polyp Detection [88.4359020192429]
既存の手法では、計算コストのかかるコンテキストアグリゲーションが伴うか、ポリープの事前モデリングが欠如しているため、難解なケースでは性能が低下する。
本稿では,2段階のトレーニングとエンドツーエンド推論フレームワークである Enhanced CenterNet with Contrastive Learning (ECC-PolypDet) を提案する。
Box-assisted Contrastive Learning (BCL) は, クラス内差を最小限に抑え, 前庭ポリープと背景のクラス間差を最大化するため, 隠れポリープを捕捉する。
微調整段階におけるIoU誘導サンプル再重み付けの導入
論文 参考訳(メタデータ) (2024-01-10T07:03:41Z) - ScribblePolyp: Scribble-Supervised Polyp Segmentation through Dual
Consistency Alignment [9.488599217305625]
ScribblePolypは,スクリブルを教師する新しいポリープセグメンテーションフレームワークである。
完全に教師されたモデルとは異なり、ScribblePolypは各画像に対して2行(スクリブルラベル)のアノテーションを必要とする。
画素のかなりの部分がラベル付けされていないスクリブルラベルの粗い性質にもかかわらず、我々は2分岐整合性アプローチを提案する。
論文 参考訳(メタデータ) (2023-11-09T03:23:25Z) - WeakPolyp: You Only Look Bounding Box for Polyp Segmentation [42.37449127543037]
我々はバウンディングボックスアノテーションに基づいて弱教師付きポリプセグメンテーションモデル(WeakPolyp)を学習する。
干渉を避けるため、マスク・トゥ・ボックス変換(M2B)を導入する。
予測自体ではなく予測の外側ボックスマスクを監視することにより、M2Bは粗いラベルと正確な予測とのミスマッチを大幅に軽減する。
論文 参考訳(メタデータ) (2023-07-20T14:34:08Z) - BoxPolyp:Boost Generalized Polyp Segmentation Using Extra Coarse
Bounding Box Annotations [79.17754846553866]
我々は、正確なマスクと余分な粗いボックスアノテーションをフル活用するための強化されたBoxPolypモデルを提案する。
実際には、従来のポリプセグメンテーションモデルの過度に適合する問題を緩和するためにボックスアノテーションが適用される。
提案手法は従来の最先端手法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2022-12-07T07:45:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。