論文の概要: MARIO: A Mixed Annotation Framework For Polyp Segmentation
- arxiv url: http://arxiv.org/abs/2501.10957v1
- Date: Sun, 19 Jan 2025 06:11:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:25:11.729583
- Title: MARIO: A Mixed Annotation Framework For Polyp Segmentation
- Title(参考訳): MARIO:polypセグメンテーションのための混合アノテーションフレームワーク
- Authors: Haoyang Li, Yiwen Hu, Jun Wei, Zhen Li,
- Abstract要約: 既存のポリプセグメンテーションモデルは、高いラベル付けコストとデータセットの小さなサイズによって制限される。
MARIO(MARIO)は、様々なアノテーションタイプに対応するために設計された混合監視モデルである。
MARIOは、未使用のデータセットから5種類の監視を組み込むことで学習する。
- 参考スコア(独自算出の注目度): 13.902481735363795
- License:
- Abstract: Existing polyp segmentation models are limited by high labeling costs and the small size of datasets. Additionally, vast polyp datasets remain underutilized because these models typically rely on a single type of annotation. To address this dilemma, we introduce MARIO, a mixed supervision model designed to accommodate various annotation types, significantly expanding the range of usable data. MARIO learns from underutilized datasets by incorporating five forms of supervision: pixel-level, box-level, polygon-level, scribblelevel, and point-level. Each form of supervision is associated with a tailored loss that effectively leverages the supervision labels while minimizing the noise. This allows MARIO to move beyond the constraints of relying on a single annotation type. Furthermore, MARIO primarily utilizes dataset with weak and cheap annotations, reducing the dependence on large-scale, fully annotated ones. Experimental results across five benchmark datasets demonstrate that MARIO consistently outperforms existing methods, highlighting its efficacy in balancing trade-offs between different forms of supervision and maximizing polyp segmentation performance
- Abstract(参考訳): 既存のポリプセグメンテーションモデルは、高いラベル付けコストとデータセットの小さなサイズによって制限される。
さらに、これらのモデルは一般的に1つのタイプのアノテーションに依存しているため、巨大なpolypデータセットは未利用のままである。
このジレンマに対処するために、様々なアノテーションタイプに対応するように設計され、使用可能なデータの範囲を大幅に拡大する混合監視モデルであるMARIOを導入する。
MARIOは、ピクセルレベル、ボックスレベル、ポリゴンレベル、スクリブルレベル、ポイントレベルという5つの形式の監視を組み込むことで、未使用のデータセットから学習する。
それぞれの形態の監督は、ノイズを最小限に抑えつつ、監督ラベルを効果的に活用する調整された損失と関連付けられている。
これにより、MARIOは単一のアノテーション型に依存するという制約を超えることができる。
さらに、MARIOは主に弱い安価なアノテーションを持つデータセットを使用し、大規模で完全に注釈付けされたアノテーションへの依存を減らす。
5つのベンチマークデータセットによる実験結果から、MARIOは既存の手法を一貫して上回り、異なる形式の監督とポリプセグメンテーション性能の最大化のトレードオフのバランスをとる効果を強調した。
関連論文リスト
- MixPolyp: Integrating Mask, Box and Scribble Supervision for Enhanced Polyp Segmentation [45.81056373994976]
MixPolypは、さまざまなアノテーションタイプ(マスク、ボックス、スクリブル)を単一のモデルに結合する。
様々なアノテーションを扱うために、3つの新しい監視損失が導入された。
5つのデータセットの実験では、MixPolypの有効性が示されている。
論文 参考訳(メタデータ) (2024-09-25T09:34:44Z) - Scribbles for All: Benchmarking Scribble Supervised Segmentation Across Datasets [51.74296438621836]
Scribbles for Allは、スクリブルラベルに基づいて訓練されたセマンティックセグメンテーションのためのラベルおよびトレーニングデータ生成アルゴリズムである。
弱い監督の源泉としてのスクリブルの主な制限は、スクリブルセグメンテーションのための挑戦的なデータセットの欠如である。
Scribbles for Allは、いくつかの人気のあるセグメンテーションデータセットのスクリブルラベルを提供し、密集したアノテーションを持つデータセットのスクリブルラベルを自動的に生成するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-08-22T15:29:08Z) - MixSup: Mixed-grained Supervision for Label-efficient LiDAR-based 3D
Object Detection [59.1417156002086]
MixSupは、大量の安価な粗いラベルと、Mixed-fine Supervisionの限られた数の正確なラベルを同時に活用する、より実用的なパラダイムである。
MixSupは、安価なクラスタアノテーションと10%のボックスアノテーションを使用して、完全な教師付きパフォーマンスの97.31%を達成している。
論文 参考訳(メタデータ) (2024-01-29T17:05:19Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - Multi-Environment Pretraining Enables Transfer to Action Limited
Datasets [129.24823721649028]
強化学習では、意思決定の利用可能なデータは、アクションに注釈を付けないことが多い。
そこで本研究では,Emphtarget環境と他のさまざまなEmphsource環境の完全注釈付きデータセットを組み合わせることを提案する。
IDMプレトレーニング中に、さらに1つの連続ラベル付きデータの環境データセットを利用することで、アノテーションのないシーケンスに対するアクションラベルの生成が大幅に改善されることが示される。
論文 参考訳(メタデータ) (2022-11-23T22:48:22Z) - Pointly-Supervised Panoptic Segmentation [106.68888377104886]
弱教師付き単眼セグメンテーションにポイントレベルのアノテーションを適用するための新しい手法を提案する。
完全に教師された方法で使用される高密度のピクセルレベルラベルの代わりに、ポイントレベルラベルは、監督対象ごとに単一のポイントしか提供しない。
我々は、ポイントレベルのラベルから同時に汎視的擬似マスクを生成し、それらから学習することで、エンドツーエンドのフレームワークにおける問題を定式化する。
論文 参考訳(メタデータ) (2022-10-25T12:03:51Z) - Towards Single Stage Weakly Supervised Semantic Segmentation [2.28438857884398]
弱教師付きセマンティックセグメンテーションへのシングルステージアプローチを提案する。
ポイントアノテーションを使用して、オンザフライで信頼性の高い擬似マスクを生成します。
我々は、最近の実世界のデータセットにおいて、他のSOTA WSSS手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-06-18T18:34:50Z) - Reducing the Annotation Effort for Video Object Segmentation Datasets [50.893073670389164]
ピクセルマスクでフレームを密にラベル付けしても 大規模なデータセットにはスケールしない
我々は、より安価なバウンディングボックスアノテーションからピクセルレベルで擬似ラベルを自動生成するために、深層畳み込みネットワークを使用します。
我々は新しいTAO-VOSベンチマークを取得し、www.vision.rwth-aachen.de/page/taovosで公開している。
論文 参考訳(メタデータ) (2020-11-02T17:34:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。