論文の概要: FreeSOLO: Learning to Segment Objects without Annotations
- arxiv url: http://arxiv.org/abs/2202.12181v1
- Date: Thu, 24 Feb 2022 16:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:06:15.104413
- Title: FreeSOLO: Learning to Segment Objects without Annotations
- Title(参考訳): FreeSOLO: アノテーションなしでオブジェクトをセグメンテーションする方法
- Authors: Xinlong Wang, Zhiding Yu, Shalini De Mello, Jan Kautz, Anima
Anandkumar, Chunhua Shen, Jose M. Alvarez
- Abstract要約: 我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
また,本手法では,複雑なシーンからオブジェクトを教師なしで検出する,新たなローカライズ対応事前学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 191.82134817449528
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Instance segmentation is a fundamental vision task that aims to recognize and
segment each object in an image. However, it requires costly annotations such
as bounding boxes and segmentation masks for learning. In this work, we propose
a fully unsupervised learning method that learns class-agnostic instance
segmentation without any annotations. We present FreeSOLO, a self-supervised
instance segmentation framework built on top of the simple instance
segmentation method SOLO. Our method also presents a novel localization-aware
pre-training framework, where objects can be discovered from complicated scenes
in an unsupervised manner. FreeSOLO achieves 9.8% AP_{50} on the challenging
COCO dataset, which even outperforms several segmentation proposal methods that
use manual annotations. For the first time, we demonstrate unsupervised
class-agnostic instance segmentation successfully. FreeSOLO's box localization
significantly outperforms state-of-the-art unsupervised object
detection/discovery methods, with about 100% relative improvements in COCO AP.
FreeSOLO further demonstrates superiority as a strong pre-training method,
outperforming state-of-the-art self-supervised pre-training methods by +9.8% AP
when fine-tuning instance segmentation with only 5% COCO masks.
- Abstract(参考訳): インスタンスセグメンテーションは、イメージ内の各オブジェクトを認識してセグメンテーションすることを目的とした、基本的なビジョンタスクである。
しかし、学習にはバウンディングボックスやセグメンテーションマスクなどの高価なアノテーションが必要である。
本研究では,アノテーションなしでクラス非依存のインスタンスセグメンテーションを学習する,教師なし学習手法を提案する。
我々は,単純なインスタンスセグメンテーションメソッドSOLO上に構築された自己教師型インスタンスセグメンテーションフレームワークであるFreeSOLOを紹介する。
提案手法では,複雑なシーンから教師なしでオブジェクトを発見できる,新しいローカライズ・アウェア事前学習フレームワークも提案する。
FreeSOLOは、挑戦的なCOCOデータセットで9.8%のAP_{50}を達成する。
教師なしのクラスに依存しないインスタンスセグメンテーションを初めて実証した。
FreeSOLOのボックスのローカライゼーションは、最先端の教師なしオブジェクト検出/発見手法よりも優れており、COCO APの相対的な改善は100%である。
FreeSOLOはさらに、5%のCOCOマスクしか持たない細調整のインスタンスセグメンテーションにおいて、最先端の自己教師付き事前訓練法を+9.8%APで上回り、強力な事前訓練法として優位性を示す。
関連論文リスト
- SOHES: Self-supervised Open-world Hierarchical Entity Segmentation [82.45303116125021]
この研究は、人間のアノテーションを必要としない新しいアプローチであるSOHES(Self-supervised Open World Hierarchical Entities)を提示する。
視覚的特徴クラスタリングにより高品質な擬似ラベルを生成し,教師同士の学習によって擬似ラベルの雑音を補正する。
学習データとして生画像を用いることにより,自己監督型オープンワールドセグメンテーションにおける前例のない性能を実現する。
論文 参考訳(メタデータ) (2024-04-18T17:59:46Z) - Learning Referring Video Object Segmentation from Weak Annotation [78.45828085350936]
RVOS(Referring Video Object segmentation)は、対象物を記述する文に基づいて、対象物をすべてのビデオフレームにセグメント化することを目的としたタスクである。
そこで本研究では, RVOS に対する十分な監視を提供しながら, アノテーションの労力を 8 倍に削減する新たなアノテーション方式を提案する。
私たちのスキームは、最初にオブジェクトが現れるフレームのマスクと、残りのフレームのバウンディングボックスのみを必要とする。
論文 参考訳(メタデータ) (2023-08-04T06:50:52Z) - Weakly Supervised 3D Instance Segmentation without Instance-level
Annotations [57.615325809883636]
3Dセマンティックシーン理解タスクは、ディープラーニングの出現によって大きな成功を収めた。
本稿では,分類的セマンティックラベルのみを監督対象とする,弱制御型3Dインスタンスセマンティクス手法を提案する。
分類的セマンティックラベルから擬似インスタンスラベルを生成することで,アノテーションコストの低減で既存の3Dインスタンスセグメンテーションの学習を支援することができる。
論文 参考訳(メタデータ) (2023-08-03T12:30:52Z) - ElC-OIS: Ellipsoidal Clustering for Open-World Instance Segmentation on
LiDAR Data [13.978966783993146]
オープンワールドインスタンス(OIS)は、現在の観察に現れるすべてのオブジェクトインスタンスを正確に分割することを目的とした、難しいタスクである。
これは、堅牢な自律ナビゲーションのような安全クリティカルなアプリケーションにとって重要である。
我々は、LiDARポイントクラウドのための柔軟で効果的なOISフレームワークを提案し、既知のインスタンスと未知のインスタンスの両方を正確に分割できる。
論文 参考訳(メタデータ) (2023-03-08T03:22:11Z) - SOLO: A Simple Framework for Instance Segmentation [84.00519148562606]
インスタンスカテゴリ"は、インスタンスの場所に応じて、インスタンス内の各ピクセルにカテゴリを割り当てる。
SOLO"は、強力なパフォーマンスを備えたインスタンスセグメンテーションのための、シンプルで、直接的で、高速なフレームワークです。
提案手法は, 高速化と精度の両面から, 実例分割の最先端結果を実現する。
論文 参考訳(メタデータ) (2021-06-30T09:56:54Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。