論文の概要: MonoComb: A Sparse-to-Dense Combination Approach for Monocular Scene
Flow
- arxiv url: http://arxiv.org/abs/2010.10842v2
- Date: Thu, 12 Nov 2020 10:12:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:16:21.691441
- Title: MonoComb: A Sparse-to-Dense Combination Approach for Monocular Scene
Flow
- Title(参考訳): monocomb: モノクロシーンフローのための疎結合アプローチ
- Authors: Ren\'e Schuster, Christian Unger, Didier Stricker
- Abstract要約: 単一画像深度推定,光学的流れ,スパース・トゥ・ディエンスにおける最新の成果を生かし,高密度シーンフローを計算するためのモノクロ合成手法(MonoComb)を提案する。
MonoCombは光学フローを使用して、時間とともに再構成された3D位置を関連付け、閉鎖された領域を補間する。
このように、既存の単分子法は動的前景領域では性能が優れており、KITTI 2015のシーンフローベンチマークにおいて競合相手の間では2番目に良い結果となっている。
- 参考スコア(独自算出の注目度): 17.66624674542256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrary to the ongoing trend in automotive applications towards usage of
more diverse and more sensors, this work tries to solve the complex scene flow
problem under a monocular camera setup, i.e. using a single sensor. Towards
this end, we exploit the latest achievements in single image depth estimation,
optical flow, and sparse-to-dense interpolation and propose a monocular
combination approach (MonoComb) to compute dense scene flow. MonoComb uses
optical flow to relate reconstructed 3D positions over time and interpolates
occluded areas. This way, existing monocular methods are outperformed in
dynamic foreground regions which leads to the second best result among the
competitors on the challenging KITTI 2015 scene flow benchmark.
- Abstract(参考訳): より多種多様なセンサーの使用に向けた自動車応用のトレンドとは対照的に、この研究は単眼カメラで複雑なシーンフローの問題を解決することを目的としている。
この目的に向けて, 単一画像深度推定, 光流, スパース・ツー・ディエンス補間における最新の成果を活用し, 濃密なシーンフローを計算するためのモノクロ結合法(MonoComb)を提案する。
MonoCombは光学フローを使用して、時間とともに再構成された3D位置を関連付け、閉鎖された領域を補間する。
このように、既存の単分子法は動的前景領域では性能が優れており、KITTI 2015のシーンフローベンチマークにおいて競合相手の間で2番目に良い結果となっている。
関連論文リスト
- Shape of Motion: 4D Reconstruction from a Single Video [51.04575075620677]
本稿では,全列長3D動作を特徴とする汎用動的シーンを再構築する手法を提案する。
シーン動作をコンパクトなSE3モーションベースで表現することで,3次元動作の低次元構造を利用する。
本手法は,3D/2Dの長距離動き推定と動的シーンにおける新しいビュー合成の両面において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - EMR-MSF: Self-Supervised Recurrent Monocular Scene Flow Exploiting
Ego-Motion Rigidity [13.02735046166494]
自己監督型単分子シーンフロー推定は、単純で経済的なセンサーの設置に注目が集まっている。
本稿では,教師あり学習の範囲内でのネットワークアーキテクチャ設計の利点を活かして,EMR-MSFという優れたモデルを提案する。
KITTIのシーンフローベンチマークでは,最先端の自己監督単分子法のSF-all測定値が44%向上した。
論文 参考訳(メタデータ) (2023-09-04T00:30:06Z) - Dimensions of Motion: Learning to Predict a Subspace of Optical Flow
from a Single Image [50.9686256513627]
本稿では,1つのビデオフレームから,実際の瞬時光フローを含む低次元の光フローのサブスペースを予測する問題を紹介する。
いくつかの自然シーンの仮定によって、不均一性によってパラメータ化されたベースフローフィールドの集合を通して、適切なフロー部分空間を特定できることを示す。
これは、カメラの内在やポーズを必要とせずに、単眼入力ビデオを使用して教師なしの方法でこれらのタスクを学習する新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-12-02T18:52:54Z) - Dense Optical Flow from Event Cameras [55.79329250951028]
本稿では,イベントカメラからの高密度光フロー推定に特徴相関と逐次処理を導入することを提案する。
提案手法は、高密度光流を計算し、MVSEC上での終点誤差を23%削減する。
論文 参考訳(メタデータ) (2021-08-24T07:39:08Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - MoCo-Flow: Neural Motion Consensus Flow for Dynamic Humans in Stationary
Monocular Cameras [98.40768911788854]
4次元連続時間変動関数を用いて動的シーンをモデル化する表現であるMoCo-Flowを紹介する。
私たちの研究の中心には、運動フロー上の運動コンセンサス正規化によって制約される、新しい最適化の定式化がある。
複雑度の異なる人間の動きを含む複数のデータセット上でMoCo-Flowを広範囲に評価した。
論文 参考訳(メタデータ) (2021-06-08T16:03:50Z) - Self-Supervised Multi-Frame Monocular Scene Flow [61.588808225321735]
自己監督学習に基づくマルチフレーム一眼的シーンフローネットワークを導入。
自己監督学習に基づく単眼的シーンフロー法における最新の精度を観察する。
論文 参考訳(メタデータ) (2021-05-05T17:49:55Z) - A Deep Temporal Fusion Framework for Scene Flow Using a Learnable Motion
Model and Occlusions [17.66624674542256]
複数フレーム構成におけるシーンフロー推定の時間的融合のための新しいデータ駆動手法を提案する。
第2のステップでは、ニューラルネットワークが共通の参照フレームから双方向のシーンフロー推定値を合成し、洗練された推定値を生成する。
このようにして、本手法は、複数のシーンフロー推定器に対して高速なマルチフレーム拡張を提供し、基礎となるデュアルフレームアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-11-03T10:14:11Z) - Self-Supervised Monocular Scene Flow Estimation [27.477810324117016]
本稿では,競争精度とリアルタイム性能を両立させる新しい単眼シーンフロー法を提案する。
逆問題の観点から、深度と3次元運動を同時に推定する単一畳み込みニューラルネットワーク(CNN)を設計する。
論文 参考訳(メタデータ) (2020-04-08T17:55:54Z) - Multi-object Monocular SLAM for Dynamic Environments [12.537311048732017]
マルチボディ(multibody)という言葉は、カメラの動きと、シーン内の他のダイナミックな参加者の動きを追跡することを意味する。
既存のアプローチは制限された問題の変種を解くが、解は相対的なスケールの曖昧さに悩まされる。
本稿では,相対的および絶対的スケール係数の曖昧さを解決するために,多ポーズグラフ最適化の定式化を提案する。
論文 参考訳(メタデータ) (2020-02-10T03:49:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。