論文の概要: Neural Bloom: A Deep Learning Approach to Real-Time Lighting
- arxiv url: http://arxiv.org/abs/2509.05963v1
- Date: Sun, 07 Sep 2025 08:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.795508
- Title: Neural Bloom: A Deep Learning Approach to Real-Time Lighting
- Title(参考訳): Neural Bloom: リアルタイムライティングのためのディープラーニングアプローチ
- Authors: Rafal Karp, Dawid Gruszka, Tomasz Trzcinski,
- Abstract要約: ニューラルネットワークを用いて,光の輝き効果をリアルタイムで生成する新しい手法を提案する。
我々のソリューションは、与えられた3Dシーンビューから、最先端の手法よりも30%高速な輝度マスクを生成する。
- 参考スコア(独自算出の注目度): 15.12598914318765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a novel method to generate bloom lighting effect in real time using neural networks. Our solution generate brightness mask from given 3D scene view up to 30% faster than state-of-the-art methods. The existing traditional techniques rely on multiple blur appliances and texture sampling, also very often have existing conditional branching in its implementation. These operations occupy big portion of the execution time. We solve this problem by proposing two neural network-based bloom lighting methods, Neural Bloom Lighting (NBL) and Fast Neural Bloom Lighting (FastNBL), focusing on their quality and performance. Both methods were tested on a variety of 3D scenes, with evaluations conducted on brightness mask accuracy and inference speed. The main contribution of this work is that both methods produce high-quality bloom effects while outperforming the standard state-of-the-art bloom implementation, with FastNBL being faster by 28% and NBL faster by 12%. These findings highlight that we can achieve realistic bloom lighting phenomena faster, moving us towards more realism in real-time environments in the future. This improvement saves computational resources, which is a major bottleneck in real-time rendering. Furthermore, it is crucial for sustaining immersion and ensuring smooth experiences in high FPS environments, while maintaining high-quality realism.
- Abstract(参考訳): ニューラルネットワークを用いて,光の輝き効果をリアルタイムで生成する新しい手法を提案する。
我々のソリューションは、与えられた3Dシーンビューから、最先端の手法よりも30%高速な輝度マスクを生成する。
既存の技術は、複数のぼやけたアプライアンスとテクスチャサンプリングに依存しており、その実装に既存の条件分岐を持つことが多い。
これらの操作は実行時間の大部分を占めます。
本稿では,ニューラルブルームライティング(NBL)とファストニューラルブルームライティング(FastNBL)という2つのニューラルネットワークベースのブルームライティング手法を提案する。
どちらの手法も様々な3Dシーンでテストされ、明るさマスクの精度と推測速度を評価した。
この研究の主な貢献は、両方の手法が、標準的な最先端のブルーム実装よりも優れており、FastNBLは28%、NBLは12%高速である。
これらの知見は、将来、よりリアルな環境において、よりリアルな光の現象をより早く実現し、よりリアルな環境へと移行できることを浮き彫りにしている。
この改善により、リアルタイムレンダリングの大きなボトルネックである計算リソースが節約される。
さらに、高品質なリアリズムを維持しつつ、高いFPS環境での没入性を維持し、スムーズな体験を確保することが重要である。
関連論文リスト
- Real-time 3D-aware Portrait Video Relighting [89.41078798641732]
ニューラル・ラジアンス・フィールド(NeRF)を応用した3次元映像の映像再生のための3D認識方式を提案する。
我々は、高速なデュアルエンコーダを備えたビデオフレーム毎に所望の照明条件に基づいて、アルベド三面体とシェーディング三面体を推定する。
本手法は, 消費者レベルのハードウェア上で32.98fpsで動作し, 再現性, 照明誤差, 照明不安定性, 時間的整合性, 推論速度の両面から最新の結果が得られる。
論文 参考訳(メタデータ) (2024-10-24T01:34:11Z) - NLDF: Neural Light Dynamic Fields for Efficient 3D Talking Head Generation [0.0]
高い速度で高品質な3次元発話顔を生成することを目的としたニューラルライトダイナミック・フィールズモデルを提案する。
NLDFは光セグメントに基づいて光フィールドを表現し、深いネットワークを使用して光の全情報を一度に学習する。
提案手法は,3次元音声映像生成における顔光のダイナミクスを効果的に表現し,芸術的NeRF法と比較して約30倍の高速化を実現する。
論文 参考訳(メタデータ) (2024-06-17T06:53:37Z) - Event3DGS: Event-Based 3D Gaussian Splatting for High-Speed Robot Egomotion [54.197343533492486]
Event3DGSは高速移動下で高忠実度3D構造と外観を再構築することができる。
複数の合成および実世界のデータセットの実験は、既存のイベントベースの高密度な3Dシーン再構築フレームワークと比較して、Event3DGSの優位性を示している。
また, 構造的精度を損なうことなく, 外観の忠実度をより高められるように, フレームベースで数回の動特性測定を再構成プロセスに組み込むことも可能である。
論文 参考訳(メタデータ) (2024-06-05T06:06:03Z) - PASTA: Towards Flexible and Efficient HDR Imaging Via Progressively Aggregated Spatio-Temporal Alignment [91.38256332633544]
PASTAは、HDRデゴスティングのためのプログレッシブアグリゲーションアグリゲーション・時空間アライメントフレームワークである。
提案手法は,特徴分散中の階層的表現を活用することにより,有効性と効率性を実現する。
実験結果から,従来のSOTA法よりもPASTAの方が視覚的品質と性能の両方で優れていることが示された。
論文 参考訳(メタデータ) (2024-03-15T15:05:29Z) - 3D Gaussian Splatting for Real-Time Radiance Field Rendering [4.320393382724066]
競争力のあるトレーニング時間を維持しながら、最先端の視覚的品質を達成するための3つの重要な要素を紹介します。
いくつかの確立したデータセット上で、最先端の視覚的品質とリアルタイムレンダリングを実証する。
論文 参考訳(メタデータ) (2023-08-08T06:37:06Z) - RealLiFe: Real-Time Light Field Reconstruction via Hierarchical Sparse
Gradient Descent [23.4659443904092]
EffLiFeは、スパースビュー画像から高品質な光場をリアルタイムで生成する新しい光場最適化手法である。
本手法は,最先端のオフライン手法よりも平均100倍高速な視覚的品質を実現する。
論文 参考訳(メタデータ) (2023-07-06T14:31:01Z) - PDRF: Progressively Deblurring Radiance Field for Fast and Robust Scene
Reconstruction from Blurry Images [75.87721926918874]
PDRF(Progressive Deblurring Radiance Field)について報告する。
PDRFは、ぼやけた画像から高品質な放射場を効率的に再構成する新しい手法である。
PDRF は以前の State-of-The-Art シーン再構成手法よりも15倍高速であることを示す。
論文 参考訳(メタデータ) (2022-08-17T03:42:29Z) - EfficientNeRF: Efficient Neural Radiance Fields [63.76830521051605]
我々は,3次元シーンを表現し,新しい映像を合成する効率的なNeRF法として,EfficientNeRFを提案する。
本手法は, トレーニング時間の88%以上を短縮し, 200FPS以上のレンダリング速度を達成できるが, 競争精度は高い。
論文 参考訳(メタデータ) (2022-06-02T05:36:44Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。