論文の概要: Self-Supervised Monocular Scene Decomposition and Depth Estimation
- arxiv url: http://arxiv.org/abs/2110.11275v1
- Date: Thu, 21 Oct 2021 17:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 20:46:57.747884
- Title: Self-Supervised Monocular Scene Decomposition and Depth Estimation
- Title(参考訳): 自己教師付き単眼シーン分解と深度推定
- Authors: Sadra Safadoust, Fatma G\"uney
- Abstract要約: 自己教師付き単眼深度推定アプローチは、シーン内で独立して動くオブジェクトを無視したり、それらを識別するために別のセグメンテーションステップを必要とする。
我々は,モノクルビデオから深度と移動物体のセグメントを接地木ラベルを使わずに共同で推定するMonoDepthSegを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised monocular depth estimation approaches either ignore
independently moving objects in the scene or need a separate segmentation step
to identify them. We propose MonoDepthSeg to jointly estimate depth and segment
moving objects from monocular video without using any ground-truth labels. We
decompose the scene into a fixed number of components where each component
corresponds to a region on the image with its own transformation matrix
representing its motion. We estimate both the mask and the motion of each
component efficiently with a shared encoder. We evaluate our method on three
driving datasets and show that our model clearly improves depth estimation
while decomposing the scene into separately moving components.
- Abstract(参考訳): 自己教師付き単眼深度推定アプローチは、シーン内の独立に動くオブジェクトを無視したり、それらを識別するために別個のセグメンテーションステップが必要となる。
我々は,モノクルビデオから深度と移動物体のセグメントを接地木ラベルを使わずに共同で推定するMonoDepthSegを提案する。
シーンを一定数のコンポーネントに分解し、各コンポーネントがその動きを表す独自の変換行列を持つ画像上の領域に対応する。
共用エンコーダを用いて,各成分のマスクと動作の両方を効率的に推定する。
提案手法を3つの駆動データセット上で評価し,シーンを別々に移動したコンポーネントに分解しながら深度推定を改善することを示す。
関連論文リスト
- Motion Segmentation from a Moving Monocular Camera [3.115818438802931]
我々は、点軌跡法と光フロー法という、単眼運動分割手法の2つの一般的な分岐を生かしている。
我々は異なるシーン構造で様々な複雑な物体の動きを同時にモデル化することができる。
提案手法は,KT3DMoSegデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-09-24T22:59:05Z) - Multi-Object Discovery by Low-Dimensional Object Motion [0.0]
単一画像からの流れを再構成する際のあいまいさを取り除くために,画素単位の幾何と物体の動きをモデル化する。
シーン構造とオブジェクトの動きをモデル化することにより、合成および実世界のデータセット上での教師なしマルチオブジェクトセグメンテーションの最先端結果を得る。
論文 参考訳(メタデータ) (2023-07-16T12:35:46Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - The Emergence of Objectness: Learning Zero-Shot Segmentation from Videos [59.12750806239545]
動画は移動成分によって同じシーンを異なる視点で見ることができ、適切な領域分割と領域フローは相互のビュー合成を可能にする。
モデルでは,1枚の画像に対して特徴に基づく領域分割を出力する出現経路と,1枚の画像に対して動作特徴を出力する動き経路の2つの経路から開始する。
セグメントフローに基づく視線合成誤差を最小限に抑えるためにモデルを訓練することにより、我々の外観経路と運動経路は、それぞれ低レベルのエッジや光フローから構築することなく、領域のセグメンテーションとフロー推定を自動的に学習する。
論文 参考訳(メタデータ) (2021-11-11T18:59:11Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Consistent Depth of Moving Objects in Video [52.72092264848864]
移動カメラで撮影した通常の映像から任意の移動物体を含む動的シーンの深さを推定する手法を提案する。
我々は、この目的を、深度予測CNNを入力ビデオ全体にわたって補助的なシーンフロー予測でタンデムで訓練する新しいテストタイムトレーニングフレームワークで定式化する。
我々は、さまざまな移動物体(ペット、人、車)とカメラの動きを含む様々な挑戦的なビデオに対して、正確かつ時間的に一貫性のある結果を示す。
論文 参考訳(メタデータ) (2021-08-02T20:53:18Z) - Learning Monocular Depth in Dynamic Scenes via Instance-Aware Projection
Consistency [114.02182755620784]
本稿では,複数の動的物体の6-DoF動作,エゴモーション,深度を,監督なしで一眼レフカメラで明示的にモデル化する,エンドツーエンドのジョイントトレーニングフレームワークを提案する。
筆者らのフレームワークは,最先端の深度・動き推定法より優れていた。
論文 参考訳(メタデータ) (2021-02-04T14:26:42Z) - Learning to Segment Rigid Motions from Two Frames [72.14906744113125]
本研究では, 運動場から独立物体の動きを復元する幾何学的解析により, モジュラーネットワークを提案する。
2つの連続フレームを入力とし、背景のセグメンテーションマスクと複数の剛体移動オブジェクトを予測し、3次元の剛体変換によってパラメータ化する。
本手法はkittiおよびsintelにおける剛体運動セグメンテーションの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-11T04:20:30Z) - Self-Supervised Monocular Depth Estimation: Solving the Dynamic Object
Problem by Semantic Guidance [36.73303869405764]
自己監督型単眼深度推定は, 単一カメラ画像から3次元シーン情報を得る強力な方法を示す。
本稿では,移動型動的クラス(DC)オブジェクトを扱うための自己教師付き意味誘導深度推定(SGDepth)手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T09:47:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。