論文の概要: COCONut: Modernizing COCO Segmentation
- arxiv url: http://arxiv.org/abs/2404.08639v1
- Date: Fri, 12 Apr 2024 17:59:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 14:18:01.724312
- Title: COCONut: Modernizing COCO Segmentation
- Title(参考訳): COCONut:COCOセグメンテーションの近代化
- Authors: Xueqing Deng, Qihang Yu, Peng Wang, Xiaohui Shen, Liang-Chieh Chen,
- Abstract要約: COCOベンチマークは、近代的な検出とセグメンテーションシステムの開発を推進している。
COCONutはセグメンテーションアノテーションをセグメンテーション、セグメンテーション、セグメンテーションで調和させる。
我々の知る限り、COCONutは人間のレーダによって検証された、最初の大規模な普遍的セグメンテーションデータセットである。
- 参考スコア(独自算出の注目度): 25.706167486289974
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent decades, the vision community has witnessed remarkable progress in visual recognition, partially owing to advancements in dataset benchmarks. Notably, the established COCO benchmark has propelled the development of modern detection and segmentation systems. However, the COCO segmentation benchmark has seen comparatively slow improvement over the last decade. Originally equipped with coarse polygon annotations for thing instances, it gradually incorporated coarse superpixel annotations for stuff regions, which were subsequently heuristically amalgamated to yield panoptic segmentation annotations. These annotations, executed by different groups of raters, have resulted not only in coarse segmentation masks but also in inconsistencies between segmentation types. In this study, we undertake a comprehensive reevaluation of the COCO segmentation annotations. By enhancing the annotation quality and expanding the dataset to encompass 383K images with more than 5.18M panoptic masks, we introduce COCONut, the COCO Next Universal segmenTation dataset. COCONut harmonizes segmentation annotations across semantic, instance, and panoptic segmentation with meticulously crafted high-quality masks, and establishes a robust benchmark for all segmentation tasks. To our knowledge, COCONut stands as the inaugural large-scale universal segmentation dataset, verified by human raters. We anticipate that the release of COCONut will significantly contribute to the community's ability to assess the progress of novel neural networks.
- Abstract(参考訳): 最近の数十年間、ビジョンコミュニティは、部分的にはデータセットのベンチマークの進歩のために、視覚認識の顕著な進歩を目撃してきた。
特に、確立されたCOCOベンチマークは、近代的な検出とセグメンテーションシステムの開発を推進している。
しかし、COCOセグメンテーションのベンチマークは、ここ10年で比較的緩やかに改善されている。
もともとは粗い多角形アノテーションが備わっていたが、次第に粗いスーパーピクセルアノテーションをモノの領域に組み込んでいき、その後、汎視的セグメンテーションアノテーションを得るためにヒューリスティックに融合した。
これらのアノテーションは、アレーダの異なるグループによって実行され、粗いセグメンテーションマスクだけでなく、セグメンテーションタイプ間の矛盾も生じている。
本研究ではCOCOセグメンテーションアノテーションの総合的な再評価を行う。
アノテーションの品質を高め,5.18M以上のパノラママスクを用いた383K画像にデータセットを拡張することにより,COCO Next Universal segmenTationデータセットであるCOCONutを導入する。
COCONutはセグメンテーションアノテーションをセグメンテーション、セグメンテーション、パノプティクスセグメンテーションと調和させ、すべてのセグメンテーションタスクに対して堅牢なベンチマークを確立する。
我々の知る限り、COCONutは人間のレーダによって検証された、最初の大規模な普遍的セグメンテーションデータセットである。
我々は、COCONutのリリースが、新しいニューラルネットワークの進歩を評価するコミュニティの能力に大きく貢献することを期待している。
関連論文リスト
- Concealed Object Segmentation with Hierarchical Coherence Modeling [9.185195569812667]
隠れオブジェクトセグメンテーション(COS)のための階層型コヒーレンスモデリング(HCM)セグメンタを提案する。
HCMは、段内コヒーレンスと段間コヒーレンスモジュールを活用することで特徴コヒーレンスを促進する。
低信頼領域の未検出部分を検出するための可逆再校正デコーダも導入する。
論文 参考訳(メタデータ) (2024-01-22T09:02:52Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - Betrayed by Captions: Joint Caption Grounding and Generation for Open
Vocabulary Instance Segmentation [80.48979302400868]
オープンな語彙のインスタンスセグメンテーションに注目し、セグメンテーションモデルを拡張して、インスタンスレベルの新しいカテゴリを分類し、セグメンテーションする。
これまでは、画像領域と名詞の字幕間の1対1のマッピングを確立するために、大量の字幕データセットと複雑なパイプラインに頼っていた。
我々は,一致したオブジェクトのみに着目して学習効率を向上させる新しいグラウンドニング損失を取り入れた,共同の textbf Caption Grounding and Generation (CGG) フレームワークを考案した。
論文 参考訳(メタデータ) (2023-01-02T18:52:12Z) - CoMFormer: Continual Learning in Semantic and Panoptic Segmentation [45.66711231393775]
セグメンテーションと汎視的セグメンテーションの両方で操作できる最初の連続学習モデルを提案する。
提案手法はトランスフォーマーアーキテクチャの特性を利用して,時間とともに新しいクラスを学習する。
私たちのCoMFormerは、古いクラスを忘れるだけでなく、より効果的に新しいクラスを学ぶことで、既存のすべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2022-11-25T10:15:06Z) - A Survey on Label-efficient Deep Segmentation: Bridging the Gap between
Weak Supervision and Dense Prediction [115.9169213834476]
本稿では,ラベル効率の高いセグメンテーション手法について概説する。
まず,様々な種類の弱いラベルによって提供される監督に従って,これらの手法を整理する分類法を開発する。
次に,既存のラベル効率のセグメンテーション手法を統一的な視点から要約する。
論文 参考訳(メタデータ) (2022-07-04T06:21:01Z) - Inconsistency-aware Uncertainty Estimation for Semi-supervised Medical
Image Segmentation [92.9634065964963]
我々は、不確実性推定と個別の自己学習戦略に基づいて、新しい半教師付きセグメンテーションモデル、すなわち保守的ラディカルネットワーク(CoraNet)を提案する。
現在の技術と比較すると、ColaNetは優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-10-17T08:49:33Z) - Bootstrapping Semantic Segmentation with Regional Contrast [27.494579304204226]
ReCoは、セマンティックセグメンテーションにおける学習を支援するために、地域レベルで設計されたコントラスト学習フレームワークです。
CityScapesデータセットでは50% mIoUを達成でき、ラベル付き画像は20枚しか必要とせず、以前の最先端と比較して10%改善しています。
論文 参考訳(メタデータ) (2021-04-09T16:26:29Z) - A Few Guidelines for Incremental Few-Shot Segmentation [57.34237650765928]
事前訓練されたセグメンテーションモデルと、新しいクラスを含む画像が少ないことを前提として、我々が目指すのは、以前に見たセグメンテーション能力を維持しながら、新しいクラスをセグメンテーションすることである。
このシナリオにおけるエンド・ツー・エンドのトレーニングの主な問題はどのようなものかを示します。
一 バッチ正規化統計を、バッチ正規化で修正できる新しいクラスへ向けての漂流すること。
二 旧クラスの忘れ物 正規化戦略で解決できるもの。
論文 参考訳(メタデータ) (2020-11-30T20:45:56Z) - Class-wise Dynamic Graph Convolution for Semantic Segmentation [63.08061813253613]
本稿では,情報を適応的に伝達するクラスワイド動的グラフ畳み込み (CDGC) モジュールを提案する。
また、CDGCモジュールと基本セグメンテーションネットワークを含む2つの主要部分からなるCDGCNet(Class-wise Dynamic Graph Convolution Network)についても紹介する。
我々は,Cityscapes,PASCAL VOC 2012,COCO Stuffの3つの一般的なセマンティックセマンティックセマンティクスベンチマークについて広範な実験を行った。
論文 参考訳(メタデータ) (2020-07-19T15:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。