論文の概要: Depth Map Estimation of Dynamic Scenes Using Prior Depth Information
- arxiv url: http://arxiv.org/abs/2002.00297v1
- Date: Sun, 2 Feb 2020 01:04:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 20:13:56.918455
- Title: Depth Map Estimation of Dynamic Scenes Using Prior Depth Information
- Title(参考訳): 事前深度情報を用いた動的シーンの深度マップ推定
- Authors: James Noraky, Vivienne Sze
- Abstract要約: 本稿では,並列に収集した画像から深度マップを推定するアルゴリズムと,動的シーンに対する予め測定した深度マップを提案する。
我々のゴールは、大きな計算コストを伴わずに、能動深度センサと計算との深度取得のバランスをとることである。
提案手法では, 標準ラップトップコンピュータ上で, 最大30FPSの高密度深度マップを, 類似の手法よりも桁違いに高速に取得できる。
- 参考スコア(独自算出の注目度): 14.03714478207425
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth information is useful for many applications. Active depth sensors are
appealing because they obtain dense and accurate depth maps. However, due to
issues that range from power constraints to multi-sensor interference, these
sensors cannot always be continuously used. To overcome this limitation, we
propose an algorithm that estimates depth maps using concurrently collected
images and a previously measured depth map for dynamic scenes, where both the
camera and objects in the scene may be independently moving. To estimate depth
in these scenarios, our algorithm models the dynamic scene motion using
independent and rigid motions. It then uses the previous depth map to
efficiently estimate these rigid motions and obtain a new depth map. Our goal
is to balance the acquisition of depth between the active depth sensor and
computation, without incurring a large computational cost. Thus, we leverage
the prior depth information to avoid computationally expensive operations like
dense optical flow estimation or segmentation used in similar approaches. Our
approach can obtain dense depth maps at up to real-time (30 FPS) on a standard
laptop computer, which is orders of magnitude faster than similar approaches.
When evaluated using RGB-D datasets of various dynamic scenes, our approach
estimates depth maps with a mean relative error of 2.5% while reducing the
active depth sensor usage by over 90%.
- Abstract(参考訳): 深度情報は多くの応用に有用である。
能動深度センサは、密集した正確な深度マップを得るため、魅力的である。
しかし、電力制約からマルチセンサー干渉まで幅広い問題から、これらのセンサーを常に使用することはできない。
この制限を克服するために,同時収集した画像を用いて深度マップを推定するアルゴリズムと,カメラとシーン内のオブジェクトが独立に移動可能な動的シーンの深度マップを提案する。
これらのシナリオの奥行きを推定するために, アルゴリズムは独立および剛体運動を用いて動的シーン動作をモデル化する。
次に、前の深度マップを使用して、これらの剛体運動を効率的に推定し、新しい深度マップを得る。
当社の目標は,大規模な計算コストを伴わずに,アクティブ深さセンサと計算の深さ取得のバランスをとることにある。
そこで,先行する奥行き情報を利用して,同様の手法で使用される高密度光流推定やセグメンテーションなどの計算コストのかかる操作を回避する。
提案手法では, 標準ラップトップコンピュータ上で, 最大30FPSの高密度深度マップを, 類似の手法よりも桁違いに高速に取得できる。
動的シーンのRGB-Dデータセットを用いて評価すると, 平均相対誤差2.5%で深度マップを推定し, アクティブ深度センサの使用量を90%以上削減する。
関連論文リスト
- FS-Depth: Focal-and-Scale Depth Estimation from a Single Image in Unseen
Indoor Scene [57.26600120397529]
実際の(見えない)屋内シーンの単一の画像から絶対深度マップを予測するのには、長年不適切な問題だった。
本研究では,未確認屋内シーンの単一画像から絶対深度マップを正確に学習するための焦点・スケール深度推定モデルを開発した。
論文 参考訳(メタデータ) (2023-07-27T04:49:36Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - Gated2Gated: Self-Supervised Depth Estimation from Gated Images [22.415893281441928]
ゲーテッドカメラは、高解像度の3D深度でLiDARセンサーをスキャンする代替品として有望だ。
そこで本研究では,ゲート強度プロファイルと時間的一貫性をトレーニング信号として用いた完全自己教師型深度推定手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T19:47:38Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Multi-Modal Depth Estimation Using Convolutional Neural Networks [0.8701566919381223]
本論文では, 厳しい気象条件下での遠距離センサデータと単一カメラ画像からの深度予測について考察する。
ディープラーニングアプローチを適用して深度を推定するカメラ、レーダー、ライダーなど、さまざまなセンサーモダリティの重要性を探ります。
論文 参考訳(メタデータ) (2020-12-17T15:31:49Z) - Deep Depth Estimation from Visual-Inertial SLAM [11.814395824799988]
視覚-慣性同時局在マッピングシステム(VI-SLAM)を用いてスパース深度を計算した症例について検討した。
結果として生じる点雲は密度が低く、ノイズがあり、一様でない空間分布を持つ。
我々は、VI-SLAMから得られる重力推定値を用いて、トレーニングデータセットで一般的な向きに入力画像をワープする。
論文 参考訳(メタデータ) (2020-07-31T21:28:25Z) - Defocus Blur Detection via Depth Distillation [64.78779830554731]
初めてDBDに深度情報を導入します。
より詳しくは, 地底の真理と, 十分に訓練された深度推定ネットワークから抽出した深度から, デフォーカスのぼかしを学習する。
我々の手法は、2つの一般的なデータセット上で11の最先端の手法より優れています。
論文 参考訳(メタデータ) (2020-07-16T04:58:09Z) - Self-Attention Dense Depth Estimation Network for Unrectified Video
Sequences [6.821598757786515]
LiDARとレーダーセンサーはリアルタイム深度推定のためのハードウェアソリューションである。
深層学習に基づく自己教師付き深度推定法は有望な結果を示した。
未修正画像に対する自己注意に基づく深度・自我移動ネットワークを提案する。
論文 参考訳(メタデータ) (2020-05-28T21:53:53Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。