論文の概要: altiro3D: Scene representation from single image and novel view
synthesis
- arxiv url: http://arxiv.org/abs/2304.11161v1
- Date: Sun, 2 Apr 2023 16:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:46:45.969706
- Title: altiro3D: Scene representation from single image and novel view
synthesis
- Title(参考訳): altiro3D:単一画像からのシーン表現と新しいビュー合成
- Authors: E. Canessa and L. Tenze
- Abstract要約: altiro3Dは、元のRGB画像やフラットビデオから始まる現実を表現するために開発されたライブラリである。
ライトフィールド(あるいはネイティブ)の画像やビデオを生成して、リアルな3D体験を得られる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce altiro3D, a free extended library developed to represent reality
starting from a given original RGB image or flat video. It allows to generate a
light-field (or Native) image or video and get a realistic 3D experience. To
synthesize N-number of virtual images and add them sequentially into a Quilt
collage, we apply MiDaS models for the monocular depth estimation, simple
OpenCV and Telea inpainting techniques to map all pixels, and implement a
'Fast' algorithm to handle 3D projection camera and scene transformations along
N-viewpoints. We use the degree of depth to move proportionally the pixels,
assuming the original image to be at the center of all the viewpoints. altiro3D
can also be used with DIBR algorithm to compute intermediate snapshots from a
equivalent 'Real (slower)' camera with N-geometric viewpoints, which requires
to calibrate a priori several intrinsic and extrinsic camera parameters. We
adopt a pixel- and device-based Lookup Table to optimize computing time. The
multiple viewpoints and video generated from a single image or frame can be
displayed in a free-view LCD display.
- Abstract(参考訳): Altiro3Dは、与えられたRGB画像やフラットビデオから現実を表現するために開発されたフリー拡張ライブラリである。
ライトフィールド(あるいはネイティブ)の画像やビデオを生成して、リアルな3D体験を得られる。
仮想画像のN個数を合成し,それらをQuiltコラージュに順次付加するために,単眼深度推定のためのMiDaSモデル,全画素をマッピングするシンプルなOpenCVおよびTeleaインペイント技術,N視点に沿った3Dプロジェクションカメラとシーン変換を扱う「ファスト」アルゴリズムを実装した。
深度の度合いを使ってピクセルを比例的に移動させ、元の画像がすべての視点の中心にあると仮定する。
altiro3D は DIBR アルゴリズムを用いて N-geometric views と等価な 'Real (slower)' カメラから中間スナップショットを計算することもできる。
計算時間を最適化するために、ピクセルとデバイスベースのルックアップテーブルを採用しています。
フリービューLCDディスプレイには、単一の画像又はフレームから生成された複数の視点及び映像を表示することができる。
関連論文リスト
- Generating 3D-Consistent Videos from Unposed Internet Photos [68.944029293283]
カメラパラメータなどの3Dアノテーションを使わずに,スケーラブルな3D対応ビデオモデルをトレーニングする。
その結果,映像やマルチビューインターネット写真などの2次元データのみを用いて,シーンレベルの3D学習をスケールアップできることが示唆された。
論文 参考訳(メタデータ) (2024-11-20T18:58:31Z) - OmniSCV: An Omnidirectional Synthetic Image Generator for Computer
Vision [5.2178708158547025]
本稿では,全方位画像のデータセットを意味情報と深度情報で生成するツールを提案する。
これらの画像は、Unreal Engine 4のリアルな仮想環境で取得された一連のキャプチャから合成される。
ツールには、非中央パノラマおよび非中央カタディオプトリシステムとして、フォトリアリスティックな非中央プロジェクションシステムが含まれています。
論文 参考訳(メタデータ) (2024-01-30T14:40:19Z) - DUSt3R: Geometric 3D Vision Made Easy [8.471330244002564]
Dense and Unconstrained Stereo 3D Reconstruction of arbitrary image collections。
本定式化は単眼および両眼の再建症例を円滑に統一することを示す。
私たちの定式化はシーンの3Dモデルと深度情報を直接提供しますが、興味深いことに、シームレスに回復できます。
論文 参考訳(メタデータ) (2023-12-21T18:52:14Z) - Anyview: Generalizable Indoor 3D Object Detection with Variable Frames [63.51422844333147]
我々は,AnyViewという新しい3D検出フレームワークを実用化するために提案する。
本手法は, 単純かつクリーンなアーキテクチャを用いて, 高い一般化性と高い検出精度を実現する。
論文 参考訳(メタデータ) (2023-10-09T02:15:45Z) - Differentiable Blocks World: Qualitative 3D Decomposition by Rendering
Primitives [70.32817882783608]
本稿では,3次元プリミティブを用いて,シンプルでコンパクトで動作可能な3次元世界表現を実現する手法を提案する。
既存の3次元入力データに依存するプリミティブ分解法とは異なり,本手法は画像を直接操作する。
得られたテクスチャ化されたプリミティブは入力画像を忠実に再構成し、視覚的な3Dポイントを正確にモデル化する。
論文 参考訳(メタデータ) (2023-07-11T17:58:31Z) - Vision Transformer for NeRF-Based View Synthesis from a Single Input
Image [49.956005709863355]
本稿では,グローバルな特徴と局所的な特徴を両立させ,表現力のある3D表現を実現することを提案する。
新たなビューを合成するために,学習した3次元表現に条件付き多層パーセプトロン(MLP)ネットワークを訓練し,ボリュームレンダリングを行う。
提案手法は,1つの入力画像のみから新しいビューを描画し,複数のオブジェクトカテゴリを1つのモデルで一般化することができる。
論文 参考訳(メタデータ) (2022-07-12T17:52:04Z) - FreeStyleGAN: Free-view Editable Portrait Rendering with the Camera
Manifold [5.462226912969161]
現在のGAN(Generative Adversarial Networks)は、ポートレート画像のフォトリアリスティックレンダリングを生成する。
当社のアプローチは,トレーニング済みのStyleGANを標準の3Dレンダリングパイプラインに統合する上で,どのような効果があるかを示す。
本手法は,インタラクティブなレートでリアルな顔の真の自由視点レンダリングを提案する。
論文 参考訳(メタデータ) (2021-09-20T08:59:21Z) - IBRNet: Learning Multi-View Image-Based Rendering [67.15887251196894]
本稿では,近接ビューの疎集合を補間することにより,複雑なシーンの新しいビューを合成する手法を提案する。
レンダリング時にソースビューを描画することで、画像ベースのレンダリングに関する古典的な作業に戻ります。
論文 参考訳(メタデータ) (2021-02-25T18:56:21Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。