論文の概要: MonoPLFlowNet: Permutohedral Lattice FlowNet for Real-Scale 3D Scene
FlowEstimation with Monocular Images
- arxiv url: http://arxiv.org/abs/2111.12325v1
- Date: Wed, 24 Nov 2021 08:20:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 15:35:43.323551
- Title: MonoPLFlowNet: Permutohedral Lattice FlowNet for Real-Scale 3D Scene
FlowEstimation with Monocular Images
- Title(参考訳): MonoPLFlowNet:モノクロ画像を用いた実物大3次元シーンフロー推定のためのPermutohedral Lattice FlowNet
- Authors: Runfa Li, Truong Nguyen
- Abstract要約: 直交格子(MonoPLFlowNet)の深層学習アーキテクチャについて述べる。
実物大のシーンフロー推定は、画期的なモノクルイメージに基づくすべての作品を、地上の真実によって実物大に再現する。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-scale scene flow estimation has become increasingly important for 3D
computer vision. Some works successfully estimate real-scale 3D scene flow with
LiDAR. However, these ubiquitous and expensive sensors are still unlikely to be
equipped widely for real application. Other works use monocular images to
estimate scene flow, but their scene flow estimations are normalized with scale
ambiguity, where additional depth or point cloud ground truth are required to
recover the real scale. Even though they perform well in 2D, these works do not
provide accurate and reliable 3D estimates. We present a deep learning
architecture on permutohedral lattice - MonoPLFlowNet. Different from all
previous works, our MonoPLFlowNet is the first work where only two consecutive
monocular images are used as input, while both depth and 3D scene flow are
estimated in real scale. Our real-scale scene flow estimation outperforms all
state-of-the-art monocular-image based works recovered to real scale by ground
truth, and is comparable to LiDAR approaches. As a by-product, our real-scale
depth estimation also outperforms other state-of-the-art works.
- Abstract(参考訳): 3次元コンピュータビジョンにおいて,実物的シーンフロー推定がますます重要になっている。
実際の3次元シーンフローをLiDARで推定する作業もある。
しかし、これらのユビキタスで高価なセンサーは、実際の用途に広く装備される可能性は低い。
他の研究では、シーンフローを単眼画像で推定するが、シーンフローの推定はスケールのあいまいさによって正規化され、そこでは、実際のスケールを回復するために追加の深度や点雲の真実が要求される。
2dでうまく機能するが、これらの作品は正確で信頼性の高い3d見積もりを提供していない。
直交格子(MonoPLFlowNet)の深層学習アーキテクチャについて述べる。
これまでと異なり、MonoPLFlowNetは2つの連続した単分子画像のみを入力とし、奥行きと3次元のシーンフローをリアルタイムで推定する最初の作品です。
実物大のシーンフロー推定は,実物大のモノクルイメージをベースとした実物大の作業よりも優れており,LiDARのアプローチに匹敵する。
副産物として、我々の実際の深さ推定は他の最先端の作品よりも優れている。
関連論文リスト
- Monocular Occupancy Prediction for Scalable Indoor Scenes [56.686307396496545]
そこで本研究では,モノクロ画像を用いた屋内シーン占有率の予測手法であるISOを提案する。
ISOは、事前訓練された深度モデルの利点を利用して正確な深度予測を行う。
Occ-ScanNetは屋内シーンの大規模占有ベンチマークである。
論文 参考訳(メタデータ) (2024-07-16T13:50:40Z) - DistillNeRF: Perceiving 3D Scenes from Single-Glance Images by Distilling Neural Fields and Foundation Model Features [65.8738034806085]
DistillNeRFは、自動運転シーンにおける3D環境を理解するための自己教師型学習フレームワークである。
本手法は,スパースで単一フレームのマルチビューカメラ入力からリッチなニューラルシーン表現を予測する一般化可能なフィードフォワードモデルである。
論文 参考訳(メタデータ) (2024-06-17T21:15:13Z) - 3D Scene Flow Estimation on Pseudo-LiDAR: Bridging the Gap on Estimating
Point Motion [19.419030878019974]
3次元シーンフローは、3次元ユークリッド空間において、現在の時刻の点が次回に流れる様子を特徴付ける。
3次元空間に2次元画素の密接な性質を導入することにより、予測されたシーンフローの安定性が向上する。
より効果的な3次元シーンフローの教師なし学習を実現するために, 差分整合損失を提案する。
論文 参考訳(メタデータ) (2022-09-27T03:27:09Z) - DevNet: Self-supervised Monocular Depth Learning via Density Volume
Construction [51.96971077984869]
単眼画像からの自己教師付き深度学習は、通常、時間的に隣接する画像フレーム間の2Dピクセル単位の光度関係に依存する。
本研究は, 自己教師型単眼深度学習フレームワークであるDevNetを提案する。
論文 参考訳(メタデータ) (2022-09-14T00:08:44Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Unsupervised Learning of 3D Scene Flow from Monocular Camera [21.34395959441377]
実シーンにおけるシーンフローの基礎的真理を知ることは困難であり、近年の研究は、学習のための合成データに基づいている。
本稿では,モノクロカメラで撮影した2つの連続したフレームの画像を利用した,シーンフローの教師なし学習手法を提案する。
本手法は,実世界データを用いたシーンフローネットワークの学習を目標とし,トレーニングデータとテストデータとのギャップを埋めることを実現する。
論文 参考訳(メタデータ) (2022-06-08T04:57:27Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Occlusion Guided Scene Flow Estimation on 3D Point Clouds [4.518012967046983]
3次元シーンフロー推定は、環境に与えられた深度や範囲のセンサーを知覚する上で欠かせないツールである。
本稿では,フレーム間のフローとオクルージョンの両方の学習を密に結合する,OGSF-Netと呼ばれる新しいシーンフローアーキテクチャを提案する。
これらの共生が組み合わさって宇宙の流れをより正確に予測できる。
論文 参考訳(メタデータ) (2020-11-30T15:22:03Z) - Self-Supervised Monocular Scene Flow Estimation [27.477810324117016]
本稿では,競争精度とリアルタイム性能を両立させる新しい単眼シーンフロー法を提案する。
逆問題の観点から、深度と3次元運動を同時に推定する単一畳み込みニューラルネットワーク(CNN)を設計する。
論文 参考訳(メタデータ) (2020-04-08T17:55:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。