論文の概要: NudgeSeg: Zero-Shot Object Segmentation by Repeated Physical Interaction
- arxiv url: http://arxiv.org/abs/2109.13859v1
- Date: Wed, 22 Sep 2021 05:17:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-10 15:09:22.998197
- Title: NudgeSeg: Zero-Shot Object Segmentation by Repeated Physical Interaction
- Title(参考訳): NudgeSeg: 繰り返し物理相互作用によるゼロショットオブジェクトセグメンテーション
- Authors: Chahat Deep Singh, Nitin J. Sanket, Chethan M. Parameshwara, Cornelia
Ferm\"uller, Yiannis Aloimonos
- Abstract要約: 未知のオブジェクトを乱れたシーンに分割する最初のフレームワークを、オブジェクトに対して繰り返し「うなずく」ことによって提示する。
ゼロショットオブジェクトでは, 86%以上の印象的な平均検出率を示す。
- 参考スコア(独自算出の注目度): 8.712677353734627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in object segmentation have demonstrated that deep neural
networks excel at object segmentation for specific classes in color and depth
images. However, their performance is dictated by the number of classes and
objects used for training, thereby hindering generalization to never seen
objects or zero-shot samples. To exacerbate the problem further, object
segmentation using image frames rely on recognition and pattern matching cues.
Instead, we utilize the 'active' nature of a robot and their ability to
'interact' with the environment to induce additional geometric constraints for
segmenting zero-shot samples.
In this paper, we present the first framework to segment unknown objects in a
cluttered scene by repeatedly 'nudging' at the objects and moving them to
obtain additional motion cues at every step using only a monochrome monocular
camera. We call our framework NudgeSeg. These motion cues are used to refine
the segmentation masks. We successfully test our approach to segment novel
objects in various cluttered scenes and provide an extensive study with image
and motion segmentation methods. We show an impressive average detection rate
of over 86% on zero-shot objects.
- Abstract(参考訳): オブジェクトセグメンテーションの最近の進歩は、深層ニューラルネットワークが色と深度の画像の特定のクラスに対してオブジェクトセグメンテーションに優れていることを示している。
しかし、それらのパフォーマンスはトレーニングに使用されるクラスやオブジェクトの数によって決定され、見ないオブジェクトやゼロショットサンプルへの一般化を妨げる。
さらにこの問題を悪化させるため、画像フレームを用いたオブジェクト分割は認識とパターンマッチングの手がかりに依存する。
代わりに、ロボットの「アクティブ」な性質と環境との「インタラクション」能力を利用して、ゼロショットサンプルをセグメント化するための追加の幾何学的制約を誘導する。
本稿では,モノクロモノクロカメラのみを用いて,物体に繰り返し「うなずき」を施し,各ステップで新たな動きの手がかりを得るために移動させることにより,乱れたシーンで未知の物体を分割する最初の枠組みを提案する。
フレームワークをNudgeSegと呼びます。
これらのモーションキューは、セグメンテーションマスクを洗練するために使用される。
我々は,新しい物体を様々な乱雑な場面でセグメント化するためのアプローチを成功させ,画像と動きのセグメンテーション手法による広範な研究を行った。
ゼロショットオブジェクトでは, 86%以上の印象的な平均検出率を示す。
関連論文リスト
- LOCATE: Self-supervised Object Discovery via Flow-guided Graph-cut and
Bootstrapped Self-training [13.985488693082981]
動作情報と外観情報を利用して高品質な物体分割マスクを生成する自己教師型物体発見手法を提案する。
複数の標準ビデオオブジェクトセグメンテーション、画像のサリエンシ検出、オブジェクトセグメンテーションベンチマークにおいて、LOCATEと呼ばれるアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-22T07:27:09Z) - Bootstrapping Objectness from Videos by Relaxed Common Fate and Visual
Grouping [52.03068246508119]
ラベルのないビデオから学習対象のセグメンテーションを研究する。
画像セグメンタを一定のセグメントフローと小さな内部残留フローで近似した光流のループで学習する。
DAVIS16/STv2/FBMS59では,それぞれ7/9/5%の絶対利得が得られた。
論文 参考訳(メタデータ) (2023-04-17T07:18:21Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Reinforced Coloring for End-to-End Instance Segmentation [10.73460247817528]
本稿では,複数の物体を並列に区別する方法を学習する,反復的深層強化学習エージェントを提案する。
トレーニング可能なエージェントに対する報酬関数は、グラフカラー化アルゴリズムを用いて、同じオブジェクトに属するピクセルをグループ化することを好んで設計する。
論文 参考訳(メタデータ) (2020-05-14T15:15:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。