論文の概要: Towards 3D Visualization of Video from Frames
- arxiv url: http://arxiv.org/abs/2007.14465v1
- Date: Sat, 25 Jul 2020 13:37:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 01:18:58.752586
- Title: Towards 3D Visualization of Video from Frames
- Title(参考訳): フレーム映像の3次元可視化に向けて
- Authors: Slimane Larabi
- Abstract要約: 理論的には、連続するフレームから3Dシーンを再構成して、映像を3Dで見る方法を説明する。
これを実現するために、3次元の剛体物体の移動に関連する特徴をフレームで抽出しマッチングする。
移動物体の3次元構造の3次元位置決めには、移動物体の方向に対応するフレームで計算された消滅点を用いる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explain theoretically how to reconstruct the 3D scene from successive
frames in order to see the video in 3D. To do this, features, associated to
moving rigid objects in 3D, are extracted in frames and matched. The vanishing
point computed in frame corresponding to the direction of moving object is used
for 3D positioning of the 3D structure of the moving object. First experiments
are conducted and the obtained results are shown and publicly available. They
demonstrate the feasibility of our method. We conclude this paper by future
works in order to improve this method tacking into account non-rigid objects
and the case of moving camera.
- Abstract(参考訳): 映像を3dで見るために,連続するフレームから3dシーンを再構築する方法を理論的に解説する。
これを実現するために、3次元の剛体物体の移動に関連する特徴をフレームで抽出しマッチングする。
移動物体の3d構造の3d位置決めには、移動物体の方向に対応するフレームで算出された消滅点を用いる。
最初の実験を行い、得られた結果を提示し、公開する。
彼らは我々の方法の実現可能性を示した。
本論文は,非剛体物体と移動カメラの場合に考慮し,この手法を改良するための今後の研究によってまとめる。
関連論文リスト
- InseRF: Text-Driven Generative Object Insertion in Neural 3D Scenes [86.26588382747184]
InseRFは3次元シーンのNeRF再構成において生成物挿入のための新しい手法である。
ユーザが提供するテキスト記述と参照視点での2Dバウンディングボックスに基づいて、InseRFは3Dシーンで新しいオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-01-10T18:59:53Z) - Tracking by 3D Model Estimation of Unknown Objects in Videos [122.56499878291916]
この表現は限定的であり、代わりに明示的なオブジェクト表現を用いて2次元追跡をガイドし改善することを提案する。
我々の表現は、全てのビデオフレームのオブジェクト上の全ての3Dポイント間の複雑な長期密度対応問題に取り組む。
提案手法は, 最適3次元形状, テクスチャ, 6DoFのポーズを推定するために, 新たな損失関数を最小化する。
論文 参考訳(メタデータ) (2023-04-13T11:32:36Z) - 3D Cinemagraphy from a Single Image [73.09720823592092]
3Dシネマグラフィー(3D Cinemagraphy)は、3D画像と2Dアニメーションを融合させる新しい技術である。
静止画1枚を入力として、視覚コンテンツアニメーションとカメラモーションの両方を含むビデオを生成することを目標としています。
論文 参考訳(メタデータ) (2023-03-10T06:08:23Z) - Video Autoencoder: self-supervised disentanglement of static 3D
structure and motion [60.58836145375273]
ビデオから3次元構造とカメラポーズの遠心分離表現を学習するために,ビデオオートエンコーダを提案する。
この表現は、新しいビュー合成、カメラポーズ推定、動きの追従によるビデオ生成など、様々なタスクに適用することができる。
論文 参考訳(メタデータ) (2021-10-06T17:57:42Z) - Object Wake-up: 3-D Object Reconstruction, Animation, and in-situ
Rendering from a Single Image [58.69732754597448]
椅子の写真があれば、椅子の3次元形状を抽出し、その可愛らしい調音や動きをアニメーション化し、元の画像空間でその場でレンダリングできるだろうか?
単一画像中の調音対象を抽出・操作するための自動アプローチを考案する。
論文 参考訳(メタデータ) (2021-08-05T16:20:12Z) - 3D Object Recognition By Corresponding and Quantizing Neural 3D Scene
Representations [29.61554189447989]
本稿では,RGB-D画像からオブジェクトを検出し,その3Dポーズを推測するシステムを提案する。
多くの既存のシステムはオブジェクトを識別し、3Dのポーズを推測できるが、それらは人間のラベルや3Dアノテーションに大きく依存している。
論文 参考訳(メタデータ) (2020-10-30T13:56:09Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z) - Unsupervised object-centric video generation and decomposition in 3D [36.08064849807464]
本研究では,複数の3Dオブジェクトと3D背景を持つシーンを移動しながら映像を映像としてモデル化することを提案する。
我々のモデルは、監督なしに単眼ビデオから訓練されるが、複数の動く物体を含むコヒーレントな3Dシーンを生成することを学ぶ。
論文 参考訳(メタデータ) (2020-07-07T18:01:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。