論文の概要: SAMP: Shape and Motion Priors for 4D Vehicle Reconstruction
- arxiv url: http://arxiv.org/abs/2005.00922v1
- Date: Sat, 2 May 2020 21:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 12:52:50.600913
- Title: SAMP: Shape and Motion Priors for 4D Vehicle Reconstruction
- Title(参考訳): SAMP:4D車両の形状と動きの先行
- Authors: Francis Engelmann, J\"org St\"uckler, Bastian Leibe
- Abstract要約: 形状を3次元符号付き距離関数で表現し、それらを低次元多様体に埋め込む。
我々は、軌道を可塑性物体運動に規則化するために運動モデルを用いる。
形状復元とポーズ推定の精度を両立させた結果が得られた。
- 参考スコア(独自算出の注目度): 25.408575404593176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring the pose and shape of vehicles in 3D from a movable platform still
remains a challenging task due to the projective sensing principle of cameras,
difficult surface properties e.g. reflections or transparency, and illumination
changes between images. In this paper, we propose to use 3D shape and motion
priors to regularize the estimation of the trajectory and the shape of vehicles
in sequences of stereo images. We represent shapes by 3D signed distance
functions and embed them in a low-dimensional manifold. Our optimization method
allows for imposing a common shape across all image observations along an
object track. We employ a motion model to regularize the trajectory to
plausible object motions. We evaluate our method on the KITTI dataset and show
state-of-the-art results in terms of shape reconstruction and pose estimation
accuracy.
- Abstract(参考訳): 移動プラットフォームから3dで車両のポーズや形状を推測することは、カメラの投影センシング原理、反射や透明度といった表面特性の難しさ、画像間の照明変化など、依然として困難な課題である。
本稿では,ステレオ画像のシーケンスにおける車両の軌跡と形状の推定を定式化するために,3次元形状と動きを先行して用いることを提案する。
形状を3次元符号付き距離関数で表現し, 低次元多様体に埋め込む。
この最適化手法により,物体の軌跡に沿って全画像の観測値に共通形状を付与することができる。
運動モデルを用いて軌道を定式化し, 物体の動きを推定する。
提案手法をKITTIデータセット上で評価し,形状再構成とポーズ推定の精度で最先端の結果を示す。
関連論文リスト
- Towards 3D Vision with Low-Cost Single-Photon Cameras [24.711165102559438]
小型で省エネで低コストな単光子カメラによる計測に基づいて,任意のランベルト物体の3次元形状を再構成する手法を提案する。
我々の研究は、画像ベースモデリングとアクティブレンジスキャンの関連性を引き合いに出し、単光子カメラによる3Dビジョンに向けた一歩である。
論文 参考訳(メタデータ) (2024-03-26T15:40:05Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - Learning Canonical 3D Object Representation for Fine-Grained Recognition [77.33501114409036]
本研究では,1枚の画像から3次元空間における物体の変動を再現する微粒な物体認識のための新しいフレームワークを提案する。
我々は,物体を3次元形状とその外観の合成として表現し,カメラ視点の影響を排除した。
深部表現に3次元形状と外観を併用することにより,物体の識別表現を学習する。
論文 参考訳(メタデータ) (2021-08-10T12:19:34Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z) - Pose Estimation and 3D Reconstruction of Vehicles from Stereo-Images
Using a Subcategory-Aware Shape Prior [0.0]
物体やコンピュータビジョンの3D再構成は、移動ロボット自動運転など、多くのアプリケーションにとって必須条件である。
本研究の目的は,従来の形状観察から3次元物体の復元がいかに利益を得るかを示すことである。
論文 参考訳(メタデータ) (2021-07-22T19:47:49Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - From Points to Multi-Object 3D Reconstruction [71.17445805257196]
単一のRGB画像から複数の3Dオブジェクトを検出し再構成する方法を提案する。
キーポイント検出器は、オブジェクトを中心点としてローカライズし、9-DoF境界ボックスや3D形状を含む全てのオブジェクト特性を直接予測する。
提示されたアプローチは、軽量な再構築を単一ステージで実行し、リアルタイム能力を持ち、完全に微分可能で、エンドツーエンドのトレーナーブルである。
論文 参考訳(メタデータ) (2020-12-21T18:52:21Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。