論文の概要: Real-time Rendering for Integral Imaging Light Field Displays Based on a
Voxel-Pixel Lookup Table
- arxiv url: http://arxiv.org/abs/2201.08266v1
- Date: Thu, 20 Jan 2022 16:16:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 14:54:53.788759
- Title: Real-time Rendering for Integral Imaging Light Field Displays Based on a
Voxel-Pixel Lookup Table
- Title(参考訳): voxel-pixelルックアップテーブルを用いた積分画像光フィールド表示のためのリアルタイムレンダリング
- Authors: Quanzhen Wan
- Abstract要約: レイトレーシングとプレストアドボクセルピクセルルックアップテーブル(LUT)によるリアルタイム要素画像アレイ(EIA)生成法を開発した。
オフラインとオンラインの両方の作業フローから恩恵を受け、実験は有効性を検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A real-time elemental image array (EIA) generation method which does not
sacrifice accuracy nor rely on high-performance hardware is developed, through
raytracing and pre-stored voxel-pixel lookup table (LUT). Benefiting from both
offline and online working flow, experiments verified the effectiveness.
- Abstract(参考訳): レイトレーシングおよびプレストアドボクセルピクセルルックアップテーブル(LUT)を介して、精度を犠牲にせず、高性能なハードウェアに依存しないリアルタイム要素画像アレイ(EIA)を生成する。
オフラインとオンラインの両方の作業フローから恩恵を受け、実験は有効性を検証した。
関連論文リスト
- Practical and Accurate Reconstruction of an Illuminant's Spectral Power Distribution for Inverse Rendering Pipelines [0.0]
スペクトルレンダリングとインシーン照明者のスペクトルパワー分布は、フォトリアリスティック画像の生成において重要な役割を担っている。
均一発光体のSPDを簡易かつ低コストで捕捉・再構成する手法を提案する。
シミュレーションや実世界の例では,スポットライトとうまく連携する手法を示す。
論文 参考訳(メタデータ) (2024-10-30T04:18:48Z) - EEPNet: Efficient Edge Pixel-based Matching Network for Cross-Modal Dynamic Registration between LiDAR and Camera [6.817117737186402]
自動運転車が複雑な環境の中で軌道を正確に知覚し、分析し、計画するためには、マルチセンサー融合が不可欠である。
画像にLiDAR点雲を登録する現在の手法は、固有の違いと計算オーバーヘッドのために大きな課題に直面している。
我々は、ポイントクラウド投影から得られたモダリティマップを利用して、登録精度を向上させる高度ネットワークであるEEPNetを提案する。
論文 参考訳(メタデータ) (2024-09-28T10:28:28Z) - UniVoxel: Fast Inverse Rendering by Unified Voxelization of Scene Representation [66.95976870627064]
We design a Unified Voxelization framework for explicit learning of scene representations, called UniVoxel。
そこで本研究では,シーンの形状,材料,照明を軽量ニューラルネットワークで容易に学習できるため,シーンを潜在容積表現に符号化することを提案する。
実験の結果、UniVoxelは他の方法と比較して最適化効率を著しく向上させ、シーンごとのトレーニング時間を数時間から18分に短縮し、良好な再現性を実現した。
論文 参考訳(メタデータ) (2024-07-28T17:24:14Z) - Efflex: Efficient and Flexible Pipeline for Spatio-Temporal Trajectory Graph Modeling and Representation Learning [8.690298376643959]
グラフモデリングと大規模時間軌道の学習のための包括的パイプラインであるEfflexを紹介する。
Efflexは、グラフ構築のための特徴融合を伴う多体積ケストニア隣人(KNN)アルゴリズムの組み入れを先駆している。
グラウンディンググラフ構築機構と高性能軽量GCNは、埋め込み抽出速度を最大36倍高速化する。
論文 参考訳(メタデータ) (2024-04-15T05:36:27Z) - GIR: 3D Gaussian Inverse Rendering for Relightable Scene Factorization [62.13932669494098]
本稿では,3次元ガウス表現を用いた3次元ガウス逆レンダリング(GIR)手法を提案する。
最短固有ベクトルを用いて各3次元ガウスの正規性を計算する。
我々は3次元ガウシアン毎に方向対応の放射光を格納し、多重バウンス光輸送を近似するために二次照明をアンタングルするために、効率的なボクセルベースの間接照明追跡方式を採用する。
論文 参考訳(メタデータ) (2023-12-08T16:05:15Z) - SplitNeRF: Split Sum Approximation Neural Field for Joint Geometry,
Illumination, and Material Estimation [65.99344783327054]
本稿では, 実世界の物体の形状, 材料特性, 照明特性を推定してデジタル化する手法を提案する。
提案手法は,実時間物理ベースのレンダリングに画像ベースの照明で使用される分割和近似を,レーダランスニューラルネットワーク(NeRF)パイプラインに組み込む。
提案手法は,NVIDIA A100 GPUを1つのGPUで1時間に1ドル程度のトレーニングをした後で,最先端のリライト品質を実現することができる。
論文 参考訳(メタデータ) (2023-11-28T10:36:36Z) - Multiscale Representation for Real-Time Anti-Aliasing Neural Rendering [84.37776381343662]
Mip-NeRFは、スケール情報をエンコードする円錐フラストラムとしてマルチスケール表現を提案する。
我々は,リアルタイムなアンチエイリアスレンダリングのためのマルチスケールな明示的表現であるmip voxel grids (Mip-VoG)を提案する。
私たちのアプローチは、マルチスケールのトレーニングとリアルタイムのアンチエイリアスレンダリングを同時に提供する最初の方法です。
論文 参考訳(メタデータ) (2023-04-20T04:05:22Z) - Progressively-connected Light Field Network for Efficient View Synthesis [69.29043048775802]
本稿では、複雑な前方シーンのビュー合成のためのプログレッシブ・コネクテッド・ライトフィールド・ネットワーク(ProLiF)を提案する。
ProLiFは4Dライトフィールドをエンコードし、画像やパッチレベルの損失に対するトレーニングステップで大量の光線をレンダリングすることができる。
論文 参考訳(メタデータ) (2022-07-10T13:47:20Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。