論文の概要: DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping
- arxiv url: http://arxiv.org/abs/2008.07012v2
- Date: Sat, 3 Apr 2021 06:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 11:49:48.193172
- Title: DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping
- Title(参考訳): DyStaB:動的静的ブートストラップによる教師なしオブジェクトセグメンテーション
- Authors: Yanchao Yang, Brian Lai and Stefano Soatto
- Abstract要約: 我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
- 参考スコア(独自算出の注目度): 72.84991726271024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe an unsupervised method to detect and segment portions of images
of live scenes that, at some point in time, are seen moving as a coherent
whole, which we refer to as objects. Our method first partitions the motion
field by minimizing the mutual information between segments. Then, it uses the
segments to learn object models that can be used for detection in a static
image. Static and dynamic models are represented by deep neural networks
trained jointly in a bootstrapping strategy, which enables extrapolation to
previously unseen objects. While the training process requires motion, the
resulting object segmentation network can be used on either static images or
videos at inference time. As the volume of seen videos grows, more and more
objects are seen moving, priming their detection, which then serves as a
regularizer for new objects, turning our method into unsupervised continual
learning to segment objects. Our models are compared to the state of the art in
both video object segmentation and salient object detection. In the six
benchmark datasets tested, our models compare favorably even to those using
pixel-level supervision, despite requiring no manual annotation.
- Abstract(参考訳): そこで本研究では,ある時点で移動をコヒーレントな全体と見なすライブシーンの画像の一部を検出し,切り離すための教師なし手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
次に、セグメントを使用して、静的な画像の検出に使用できるオブジェクトモデルを学ぶ。
静的モデルと動的モデルは、ブートストラップ戦略で共同でトレーニングされたディープニューラルネットワークによって表現される。
トレーニングプロセスは動作を必要とするが、結果として得られるオブジェクトセグメンテーションネットワークは、推論時に静的画像またはビデオで使用できる。
ビデオのボリュームが大きくなるにつれて、ますます多くのオブジェクトが動き、検出がプリミティブになり、新しいオブジェクトのレギュレータとして機能し、私たちのメソッドを教師なし連続学習に変換してオブジェクトをセグメント化する。
私たちのモデルは、ビデオオブジェクトのセグメンテーションとサルエントオブジェクト検出の両方の技術の状況と比較されます。
テストされた6つのベンチマークデータセットでは、手作業によるアノテーションは必要とせずとも、ピクセルレベルの監視を使用しても好適な比較を行いました。
関連論文リスト
- Zero-Shot Open-Vocabulary Tracking with Large Pre-Trained Models [28.304047711166056]
大規模事前訓練モデルでは、野生の2次元静的画像中の物体の検出とセグメンテーションの進歩が期待できる。
このような大規模なトレーニング済みの静的イメージモデルを,オープン語彙のビデオトラッキングに再利用することは可能だろうか?
本稿では,オープンボキャブラリ検出器,セグメンタ,高密度光流推定器を,任意のカテゴリの物体を2Dビデオで追跡・セグメント化するモデルに再構成する。
論文 参考訳(メタデータ) (2023-10-10T20:25:30Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Guess What Moves: Unsupervised Video and Image Segmentation by
Anticipating Motion [92.80981308407098]
本稿では,動きに基づくセグメンテーションと外観に基づくセグメンテーションの強みを組み合わせたアプローチを提案する。
本稿では、画像分割ネットワークを監督し、単純な動きパターンを含む可能性のある領域を予測することを提案する。
教師なしのビデオセグメンテーションモードでは、ネットワークは、学習プロセス自体をこれらのビデオをセグメンテーションするアルゴリズムとして使用して、ラベルのないビデオの集合に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-16T17:55:34Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - NudgeSeg: Zero-Shot Object Segmentation by Repeated Physical Interaction [8.712677353734627]
未知のオブジェクトを乱れたシーンに分割する最初のフレームワークを、オブジェクトに対して繰り返し「うなずく」ことによって提示する。
ゼロショットオブジェクトでは, 86%以上の印象的な平均検出率を示す。
論文 参考訳(メタデータ) (2021-09-22T05:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。