論文の概要: Multi-Object Discovery by Low-Dimensional Object Motion
- arxiv url: http://arxiv.org/abs/2307.08027v1
- Date: Sun, 16 Jul 2023 12:35:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 16:13:49.713202
- Title: Multi-Object Discovery by Low-Dimensional Object Motion
- Title(参考訳): 低次元物体運動による多物体発見
- Authors: Sadra Safadoust, Fatma G\"uney
- Abstract要約: 単一画像からの流れを再構成する際のあいまいさを取り除くために,画素単位の幾何と物体の動きをモデル化する。
シーン構造とオブジェクトの動きをモデル化することにより、合成および実世界のデータセット上での教師なしマルチオブジェクトセグメンテーションの最先端結果を得る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work in unsupervised multi-object segmentation shows impressive
results by predicting motion from a single image despite the inherent ambiguity
in predicting motion without the next image. On the other hand, the set of
possible motions for an image can be constrained to a low-dimensional space by
considering the scene structure and moving objects in it. We propose to model
pixel-wise geometry and object motion to remove ambiguity in reconstructing
flow from a single image. Specifically, we divide the image into coherently
moving regions and use depth to construct flow bases that best explain the
observed flow in each region. We achieve state-of-the-art results in
unsupervised multi-object segmentation on synthetic and real-world datasets by
modeling the scene structure and object motion. Our evaluation of the predicted
depth maps shows reliable performance in monocular depth estimation.
- Abstract(参考訳): 教師なし多目的セグメンテーションの最近の研究は、次の画像のない動きのあいまいさに拘わらず、単一の画像から動きを予測することで印象的な結果を示している。
一方、シーン構造を考慮し、被写体を移動させることで、画像の可能な運動のセットを低次元空間に制約することができる。
単一画像からの流れを再構成する際のあいまいさを取り除くために,画素単位の幾何と物体の動きをモデル化する。
具体的には、画像をコヒーレントに動く領域に分割し、各領域で観測された流れを最もよく説明するフローベースを構築する。
本研究では,シーン構造と物体の動きをモデル化することにより,合成および実世界のデータセット上で教師なしマルチオブジェクトセグメンテーションを実現する。
予測深度マップの評価は単眼深度推定における信頼性を示す。
関連論文リスト
- Instance-Level Moving Object Segmentation from a Single Image with Events [84.12761042512452]
移動対象セグメンテーションは、複数の移動対象を含む動的なシーンを理解する上で重要な役割を果たす。
従来の手法では、物体の画素変位がカメラの動きや物体の動きによって引き起こされるかどうかを区別することが困難であった。
近年の進歩は、従来の画像の不適切な動作モデリング機能に対抗するために、新しいイベントカメラの動作感度を利用する。
補完的なテクスチャとモーションキューを統合した,最初のインスタンスレベルの移動オブジェクトセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:56:46Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - Dynamo-Depth: Fixing Unsupervised Depth Estimation for Dynamical Scenes [40.46121828229776]
ダイナモ・ディープス(Dynamo-Depth)は、単分子深度、3次元独立流れ場、およびラベルなし単分子ビデオからの運動セグメンテーションを共同学習することにより、動的運動を曖昧にするアプローチである。
提案手法は,移動物体の深度を著しく改善したオープンおよびヌースシーンにおける単眼深度推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2023-10-29T03:24:16Z) - Boosting Object Representation Learning via Motion and Object Continuity [22.512380611375846]
物体の動きと連続性、すなわち、物体が存在の内外に現れないことを活用することを提案する。
結果のMotion and Object Continuityスキームは、任意のベースラインオブジェクト検出モデルを使用してインスタンス化することができる。
その結果,オブジェクト発見,収束速度,全般的な潜在オブジェクト表現の観点から,SOTAモデルの性能に大きな改善が見られた。
論文 参考訳(メタデータ) (2022-11-16T09:36:41Z) - Unsupervised Multi-object Segmentation by Predicting Probable Motion
Patterns [92.80981308407098]
手動による監督なしに複数の画像オブジェクトを分割する手法を提案する。
この方法は静止画像からオブジェクトを抽出するが、監視のためにビデオを使用する。
シミュレーションおよび実世界のベンチマークで、最先端の教師なしオブジェクトセグメンテーション性能を示す。
論文 参考訳(メタデータ) (2022-10-21T17:57:05Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。