論文の概要: Unsupervised Object Localization: Observing the Background to Discover
Objects
- arxiv url: http://arxiv.org/abs/2212.07834v2
- Date: Wed, 29 Mar 2023 14:03:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 18:06:51.730597
- Title: Unsupervised Object Localization: Observing the Background to Discover
Objects
- Title(参考訳): 教師なしオブジェクトローカライゼーション:オブジェクト発見の背景を観察する
- Authors: Oriane Sim\'eoni and Chlo\'e Sekkat and Gilles Puy and Antonin Vobecky
and \'Eloi Zablocki and Patrick P\'erez
- Abstract要約: 本研究では,異なるアプローチを採り,その代わりに背景を探すことを提案する。
このようにして、健全なオブジェクトは、オブジェクトが何であるべきかを強く仮定することなく、副産物として現れます。
自己教師型パッチベース表現から抽出した粗い背景マスクを備えた1ドルconv1times1$のシンプルなモデルであるFOUNDを提案する。
- 参考スコア(独自算出の注目度): 4.870509580034194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in self-supervised visual representation learning have paved
the way for unsupervised methods tackling tasks such as object discovery and
instance segmentation. However, discovering objects in an image with no
supervision is a very hard task; what are the desired objects, when to separate
them into parts, how many are there, and of what classes? The answers to these
questions depend on the tasks and datasets of evaluation. In this work, we take
a different approach and propose to look for the background instead. This way,
the salient objects emerge as a by-product without any strong assumption on
what an object should be. We propose FOUND, a simple model made of a single
$conv1\times1$ initialized with coarse background masks extracted from
self-supervised patch-based representations. After fast training and refining
these seed masks, the model reaches state-of-the-art results on unsupervised
saliency detection and object discovery benchmarks. Moreover, we show that our
approach yields good results in the unsupervised semantic segmentation
retrieval task. The code to reproduce our results is available at
https://github.com/valeoai/FOUND.
- Abstract(参考訳): 自己教師付きビジュアル表現学習の最近の進歩は、オブジェクト発見やインスタンスセグメンテーションのような教師なしのタスクに取り組む方法を広げている。
しかし、監視なしで画像内のオブジェクトを発見するのは、非常に難しい作業です。望みのオブジェクトは何で、いつそれらをパーツに分割するのか、いくつあるのか、どのクラスがあるのか?
これらの質問に対する回答は、評価のタスクとデータセットに依存する。
この作業では、異なるアプローチを採用し、代わりに背景を探すことを提案します。
このようにして、健全なオブジェクトは、オブジェクトが何であるべきかを強く仮定することなく、副産物として現れます。
我々は,自己教師付きパッチベース表現から抽出した粗い背景マスクを初期化した,単一の$conv1\times1$の単純なモデルを発見した。
これらのシードマスクを高速にトレーニングし精錬した後、モデルは教師なしサリエンシ検出とオブジェクト発見ベンチマークに関する最先端の結果に達する。
さらに,提案手法は,教師なしセマンティクスセグメンテーション検索タスクに優れた結果をもたらすことを示す。
結果はhttps://github.com/valeoai/foundで再生できます。
関連論文リスト
- In Defense of Lazy Visual Grounding for Open-Vocabulary Semantic Segmentation [50.79940712523551]
我々は,非教師対象マスク発見の2段階的アプローチである遅延視覚接地を行い,それに続いて物体接地を行う。
私たちのモデルは、追加のトレーニングは必要ありませんが、5つの公開データセットで優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2024-08-09T09:28:35Z) - PEEKABOO: Hiding parts of an image for unsupervised object localization [7.161489957025654]
教師なしの方法でオブジェクトをローカライズすることは、重要な視覚情報がないために大きな課題となる。
教師なしオブジェクトローカライゼーションのための単段階学習フレームワークPEEKABOOを提案する。
キーとなるアイデアは、画像の一部を選択的に隠し、残りの画像情報を活用して、明示的な監督なしにオブジェクトの位置を推測することである。
論文 参考訳(メタデータ) (2024-07-24T20:35:20Z) - The Background Also Matters: Background-Aware Motion-Guided Objects
Discovery [2.6442319761949875]
本研究では,背景認識型動き誘導物体探索法を提案する。
我々は光学的流れから抽出した移動物体のマスクを活用し、学習機構を設計し、それらを真の前景に拡張する。
これにより、オブジェクト発見タスクとオブジェクト/非オブジェクト分離の合同学習が可能になる。
論文 参考訳(メタデータ) (2023-11-05T12:35:47Z) - Unsupervised Object Localization in the Era of Self-Supervised ViTs: A Survey [33.692534984177364]
近年の研究では、自己教師付き事前訓練機能を利用することで、クラスに依存しない非教師付きオブジェクトローカライゼーションが可能であることが示されている。
本稿では、手動のアノテーションを必要とせず、画像中のオブジェクトを検出する教師なしオブジェクトローカライズ手法について調査する。
論文 参考訳(メタデータ) (2023-10-19T16:57:49Z) - Object-Centric Multiple Object Tracking [124.30650395969126]
本稿では,多目的追跡パイプラインのためのビデオオブジェクト中心モデルを提案する。
オブジェクト中心のスロットを検出出力に適応するインデックスマージモジュールと、オブジェクトメモリモジュールで構成される。
オブジェクト中心学習に特化して、オブジェクトのローカライゼーションと機能バインディングのためのスパース検出ラベルしか必要としない。
論文 参考訳(メタデータ) (2023-09-01T03:34:12Z) - Image Segmentation-based Unsupervised Multiple Objects Discovery [1.7674345486888503]
教師なしオブジェクト発見は、イメージ内のオブジェクトをローカライズすることを目的としている。
我々は,複数のオブジェクトの発見に対して,完全に教師なしのボトムアップアプローチを提案する。
我々は、教師なしクラス非依存オブジェクト検出と教師なしイメージセグメンテーションの両方に対して、最先端の結果を提供する。
論文 参考訳(メタデータ) (2022-12-20T09:48:24Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Learning to Detect Every Thing in an Open World [139.78830329914135]
我々は、Learning to Detect Every Thing (LDET)と呼ぶ、シンプルながら驚くほど強力なデータ拡張とトレーニングスキームを提案する。
可視だがラベル付けされていない背景オブジェクトの隠蔽を避けるため、元の画像の小さな領域から採取した背景画像上に注釈付きオブジェクトを貼り付ける。
LDETは、オープンワールドのインスタンスセグメンテーションタスクにおいて、多くのデータセットに大きな改善をもたらす。
論文 参考訳(メタデータ) (2021-12-03T03:56:06Z) - Self-supervised object detection from audio-visual correspondence [101.46794879729453]
我々は、監視なしで物体検出器を学習する問題に取り組む。
画像レベルのクラスラベルは想定せず、代わりにオーディオビジュアルデータから監視信号を抽出します。
本研究では,航空機やネコなどの機器以外のジェネリック物体の検出を学習できることを示した。
論文 参考訳(メタデータ) (2021-04-13T17:59:03Z) - Weakly-Supervised Saliency Detection via Salient Object Subitizing [57.17613373230722]
我々は,クラス非依存であるため,弱い監督としてサリエンシー・サブイタライジングを導入する。
これにより、監視はサリエンシー検出の特性と整合することができます。
5つのベンチマークデータセットに対して広範な実験を行う。
論文 参考訳(メタデータ) (2021-01-04T12:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。