論文の概要: Cut and Learn for Unsupervised Object Detection and Instance
Segmentation
- arxiv url: http://arxiv.org/abs/2301.11320v1
- Date: Thu, 26 Jan 2023 18:57:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 12:38:44.021266
- Title: Cut and Learn for Unsupervised Object Detection and Instance
Segmentation
- Title(参考訳): 教師なしオブジェクト検出とインスタンス分割のためのカット・アンド・ラーニング
- Authors: Xudong Wang and Rohit Girdhar and Stella X. Yu and Ishan Misra
- Abstract要約: Cut-and-LeaRn(CutLER)は、教師なしオブジェクトの検出とセグメンテーションモデルをトレーニングするためのシンプルなアプローチである。
CutLERはゼロショット非監視検出器であり、11のベンチマークでAP50を2.7倍以上改善している。
- 参考スコア(独自算出の注目度): 65.43627672225624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Cut-and-LEaRn (CutLER), a simple approach for training
unsupervised object detection and segmentation models. We leverage the property
of self-supervised models to 'discover' objects without supervision and amplify
it to train a state-of-the-art localization model without any human labels.
CutLER first uses our proposed MaskCut approach to generate coarse masks for
multiple objects in an image and then learns a detector on these masks using
our robust loss function. We further improve the performance by self-training
the model on its predictions. Compared to prior work, CutLER is simpler,
compatible with different detection architectures, and detects multiple
objects. CutLER is also a zero-shot unsupervised detector and improves
detection performance AP50 by over 2.7 times on 11 benchmarks across domains
like video frames, paintings, sketches, etc. With finetuning, CutLER serves as
a low-shot detector surpassing MoCo-v2 by 7.3% APbox and 6.6% APmask on COCO
when training with 5% labels.
- Abstract(参考訳): 我々は、教師なしオブジェクトの検出とセグメンテーションモデルを訓練するための簡単なアプローチであるCut-and-LeaRn(CutLER)を提案する。
自己教師付きモデルの特性を利用して、監視なしでオブジェクトを「発見」し、人間のラベルを使わずに最先端のローカライゼーションモデルを訓練する。
CutLERはまず、提案したMaskCutアプローチを使用して、画像内の複数のオブジェクトに対して粗いマスクを生成し、それからロバストな損失関数を使ってこれらのマスクの検出器を学習します。
予測モデルに基づいて自己学習を行うことにより,さらなる性能向上を図る。
以前の作業と比較すると、CutLERはシンプルで、異なる検出アーキテクチャと互換性があり、複数のオブジェクトを検出する。
CutLERはゼロショットの教師なし検出器であり、ビデオフレーム、絵画、スケッチなど11のベンチマークでAP50の検出性能を2.7倍改善している。
微調整により、CutLERは5%ラベルのトレーニングでMoCo-v2を7.3%のAPboxと6.6%のAPmaskに超える低ショット検出器として機能する。
関連論文リスト
- Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Zero-Shot Edge Detection with SCESAME: Spectral Clustering-based
Ensemble for Segment Anything Model Estimation [0.0]
本稿では,最近提案されたSegment Anything Model(SAM)に基づく,SCESAMEを用いたゼロショットエッジ検出手法を提案する。
AMGはエッジ検出に適用できるが、エッジの過剰検出の問題に悩まされる。
我々はBSDS500とNYUDv2の2つのデータセットでエッジ検出実験を行った。
論文 参考訳(メタデータ) (2023-08-26T06:19:59Z) - Semi-Supervised and Long-Tailed Object Detection with CascadeMatch [91.86787064083012]
そこで我々はCascadeMatchと呼ばれる新しい擬似ラベル型検出器を提案する。
我々の検出器は、プログレッシブな信頼しきい値を持つ多段検出ヘッドを備えたカスケードネットワークアーキテクチャを備えている。
CascadeMatchは、長い尾のオブジェクト検出の処理において、既存の最先端の半教師付きアプローチを超越していることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:09:25Z) - A Tri-Layer Plugin to Improve Occluded Detection [100.99802831241583]
本研究では,2段階物体検出装置の頭部検出のための単純な''モジュールを提案し,部分閉塞物体のリコールを改善する。
モジュールは、ターゲットオブジェクト、オクルーダー、オクラデーのセグメンテーションマスクの三層を予測し、それによってターゲットオブジェクトのマスクをより正確に予測することができる。
また,COCO評価データセットを構築し,部分閉塞オブジェクトと分離オブジェクトのリコール性能を測定した。
論文 参考訳(メタデータ) (2022-10-18T17:59:51Z) - MOVE: Unsupervised Movable Object Segmentation and Detection [32.73565093619594]
MOVEは、いかなる形態の監視もせずにオブジェクトを分割する手法である。
これは、前景のオブジェクトが初期位置に対して局所的に移動できるという事実を利用する。
SotAよりも平均で7.2%改善している。
論文 参考訳(メタデータ) (2022-10-14T16:05:46Z) - ZSD-YOLO: Zero-Shot YOLO Detection using Vision-Language
KnowledgeDistillation [5.424015823818208]
COCOのようなデータセットは、多くの画像に広く注釈付けされているが、多数のカテゴリがあり、さまざまなドメインにまたがるすべてのオブジェクトクラスに注釈を付けるのは高価で難しい。
我々は,CLIPのようなゼロショット事前学習モデルからの画像とテキストの埋め込みを,YOLOv5のような一段検出器からの修正意味予測ヘッドに整合させるビジョン・ランゲージ蒸留法を開発した。
推論中、我々のモデルは追加のトレーニングなしで任意の数のオブジェクトクラスを検出するように適応できる。
論文 参考訳(メタデータ) (2021-09-24T16:46:36Z) - Custom Object Detection via Multi-Camera Self-Supervised Learning [15.286868970188223]
MCSSLは、マルチカメラネットワークでカスタムオブジェクト検出モデルを構築するための自己教師付き学習アプローチである。
従来の自己学習手法と比較して,MCSSLはWildTrackおよびCityFlowデータセット上で平均mAPを5.44%,6.76%改善している。
論文 参考訳(メタデータ) (2021-02-05T23:11:14Z) - Weakly-Supervised Saliency Detection via Salient Object Subitizing [57.17613373230722]
我々は,クラス非依存であるため,弱い監督としてサリエンシー・サブイタライジングを導入する。
これにより、監視はサリエンシー検出の特性と整合することができます。
5つのベンチマークデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2021-01-04T12:51:45Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。