論文の概要: Discovering Objects that Can Move
- arxiv url: http://arxiv.org/abs/2203.10159v1
- Date: Fri, 18 Mar 2022 21:13:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:16:14.780834
- Title: Discovering Objects that Can Move
- Title(参考訳): 移動可能なオブジェクトを発見する
- Authors: Zhipeng Bao, Pavel Tokmakov, Allan Jabri, Yu-Xiong Wang, Adrien
Gaidon, Martial Hebert
- Abstract要約: 手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
- 参考スコア(独自算出の注目度): 55.743225595012966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the problem of object discovery -- separating objects from
the background without manual labels. Existing approaches utilize appearance
cues, such as color, texture, and location, to group pixels into object-like
regions. However, by relying on appearance alone, these methods fail to
separate objects from the background in cluttered scenes. This is a fundamental
limitation since the definition of an object is inherently ambiguous and
context-dependent. To resolve this ambiguity, we choose to focus on dynamic
objects -- entities that can move independently in the world. We then scale the
recent auto-encoder based frameworks for unsupervised object discovery from toy
synthetic images to complex real-world scenes. To this end, we simplify their
architecture, and augment the resulting model with a weak learning signal from
general motion segmentation algorithms. Our experiments demonstrate that,
despite only capturing a small subset of the objects that move, this signal is
enough to generalize to segment both moving and static instances of dynamic
objects. We show that our model scales to a newly collected, photo-realistic
synthetic dataset with street driving scenarios. Additionally, we leverage
ground truth segmentation and flow annotations in this dataset for thorough
ablation and evaluation. Finally, our experiments on the real-world KITTI
benchmark demonstrate that the proposed approach outperforms both heuristic-
and learning-based methods by capitalizing on motion cues.
- Abstract(参考訳): 本稿では,手動ラベルを使わずに対象を背景から分離する物体発見問題について検討する。
既存のアプローチでは、色、テクスチャ、位置といった外観の手がかりを使ってピクセルをオブジェクトのような領域にグループ化する。
しかし、外観だけに頼ることで、これらの手法はバラバラなシーンで背景からオブジェクトを分離することができない。
これは、オブジェクトの定義が本質的に曖昧でコンテキスト依存であるため、基本的な制限である。
この曖昧さを解決するために、私たちは動的オブジェクト -- 世界で独立して動くエンティティ -- に焦点を当てることを選びます。
次に、最近の自動エンコーダベースのフレームワークを、おもちゃの合成画像から複雑な現実世界のシーンへ拡張する。
この目的のために,そのアーキテクチャを単純化し,一般的な動き分割アルゴリズムからの弱い学習信号により,結果のモデルを補強する。
我々の実験は、移動するオブジェクトの小さなサブセットのみをキャプチャするにもかかわらず、この信号は動的オブジェクトの移動インスタンスと静的インスタンスの両方をセグメント化するのに十分であることを示した。
提案モデルでは,道路走行シナリオを用いた新たに収集した写真リアルな合成データセットにスケールする。
さらに,本データセットの真理セグメンテーションとフローアノテーションを活用し,徹底的なアブレーションと評価を行う。
最後に,実世界のkittiベンチマークを用いた実験により,提案手法が,動きの手がかりに乗じることで,ヒューリスティックと学習に基づく手法を上回っていることを示した。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Unsupervised Discovery of Object-Centric Neural Fields [21.223170092979498]
1つの画像から3次元オブジェクト中心のシーン表現を推定する。
我々は、対象中心神経場(uOCF)の教師なし発見を提案する。
論文 参考訳(メタデータ) (2024-02-12T02:16:59Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - The Background Also Matters: Background-Aware Motion-Guided Objects
Discovery [2.6442319761949875]
本研究では,背景認識型動き誘導物体探索法を提案する。
我々は光学的流れから抽出した移動物体のマスクを活用し、学習機構を設計し、それらを真の前景に拡張する。
これにより、オブジェクト発見タスクとオブジェクト/非オブジェクト分離の合同学習が可能になる。
論文 参考訳(メタデータ) (2023-11-05T12:35:47Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - Visiting the Invisible: Layer-by-Layer Completed Scene Decomposition [57.088328223220934]
既存のシーン理解システムは、主にシーンの可視部分を認識し、現実世界の物理的物体の無傷な外観を無視します。
本研究では,ある場面における物体と背景の可視部分と可視部分の両方に取り組む高レベルのシーン理解システムを提案する。
論文 参考訳(メタデータ) (2021-04-12T11:37:23Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - Instance Segmentation of Visible and Occluded Regions for Finding and
Picking Target from a Pile of Objects [25.836334764387498]
本研究では,対象物体の発見・把握が可能な物体の山から対象物を選択するロボットシステムを提案する。
既存のインスタンスセグメンテーションモデルを新しいリルックアーキテクチャで拡張し、モデルがインスタンス間の関係を明示的に学習する。
また、画像合成により、人間のアノテーションを使わずに新しいオブジェクトを処理できるシステムを構築する。
論文 参考訳(メタデータ) (2020-01-21T12:28:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。