論文の概要: MOVE: Unsupervised Movable Object Segmentation and Detection
- arxiv url: http://arxiv.org/abs/2210.07920v1
- Date: Fri, 14 Oct 2022 16:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 14:57:04.682334
- Title: MOVE: Unsupervised Movable Object Segmentation and Detection
- Title(参考訳): move: 教師なし可動オブジェクトのセグメンテーションと検出
- Authors: Adam Bielski and Paolo Favaro
- Abstract要約: MOVEは、いかなる形態の監視もせずにオブジェクトを分割する手法である。
これは、前景のオブジェクトが初期位置に対して局所的に移動できるという事実を利用する。
SotAよりも平均で7.2%改善している。
- 参考スコア(独自算出の注目度): 32.73565093619594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce MOVE, a novel method to segment objects without any form of
supervision. MOVE exploits the fact that foreground objects can be shifted
locally relative to their initial position and result in realistic
(undistorted) new images. This property allows us to train a segmentation model
on a dataset of images without annotation and to achieve state of the art
(SotA) performance on several evaluation datasets for unsupervised salient
object detection and segmentation. In unsupervised single object discovery,
MOVE gives an average CorLoc improvement of 7.2% over the SotA, and in
unsupervised class-agnostic object detection it gives a relative AP improvement
of 53% on average. Our approach is built on top of self-supervised features
(e.g. from DINO or MAE), an inpainting network (based on the Masked
AutoEncoder) and adversarial training.
- Abstract(参考訳): オブジェクトを何の監督もせずに分割する新しい手法であるMOVEを紹介する。
moveは、フォアグラウンドオブジェクトが初期位置に対してローカルに移動でき、その結果、リアルな(予期せぬ)新しい画像が得られるという事実を利用する。
この特性により、画像のデータセット上のセグメンテーションモデルをアノテーションなしでトレーニングし、教師なしのサルエントオブジェクト検出とセグメンテーションのためのいくつかの評価データセットにおける最先端(sota)性能を達成することができる。
教師なしの単一オブジェクト発見では、moveは平均的なcorloc改善が sota よりも7.2%、教師なしのクラス非依存オブジェクト検出では平均で53%改善される。
私たちのアプローチは、自己監督機能(dinoやmaeなど)、塗り込みネットワーク(マスク付きオートエンコーダに基づく)、敵のトレーニングに基づいています。
関連論文リスト
- MOD-UV: Learning Mobile Object Detectors from Unlabeled Videos [34.24947555223083]
身体的エージェントは、例えば自動運転車の交通参加者など、興味のある対象を検出し、ローカライズする必要がある。
未ラベル映像から学習した移動物体検出器MOD-UVを提案する。
オープン, nuScenes, KITTIデータセット上での教師なし移動体検出における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-05-23T17:55:11Z) - SeMoLi: What Moves Together Belongs Together [51.72754014130369]
動作手がかりに基づく半教師付き物体検出に挑戦する。
近年,移動物体の擬似ラベルインスタンスに対して,動きに基づくクラスタリング手法が適用可能であることが示唆された。
我々は、このアプローチを再考し、オブジェクト検出とモーションインスパイアされた擬似ラベルの両方が、データ駆動方式で取り組めることを示唆する。
論文 参考訳(メタデータ) (2024-02-29T18:54:53Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Cut and Learn for Unsupervised Object Detection and Instance
Segmentation [65.43627672225624]
Cut-and-LeaRn(CutLER)は、教師なしオブジェクトの検出とセグメンテーションモデルをトレーニングするためのシンプルなアプローチである。
CutLERはゼロショット非監視検出器であり、11のベンチマークでAP50を2.7倍以上改善している。
論文 参考訳(メタデータ) (2023-01-26T18:57:13Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。