論文の概要: Binary Radiance Fields
- arxiv url: http://arxiv.org/abs/2306.07581v1
- Date: Tue, 13 Jun 2023 07:11:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:52:30.012978
- Title: Binary Radiance Fields
- Title(参考訳): binary radiance フィールド
- Authors: Seungjoo Shin, Jaesik Park
- Abstract要約: バイナリ化戦略により、非常にコンパクトな機能エンコーディングと、ストレージサイズの劇的に削減された機能グリッドを表現できます。
本モデルでは,合成NSVFシーンのPSNRが31.53dB,合成NSVFシーンが34.26dB,タンクシーンとテンプルシーンが28.02dBであり,それぞれ0.7MB,0.8MB,0.8MBの記憶空間しか利用していない。
- 参考スコア(独自算出の注目度): 11.032146430369538
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose binary radiance fields (BiRF), a storage-efficient
radiance field representation employing binary feature encoding that encodes
local features using binary encoding parameters in a format of either $+1$ or
$-1$. This binarization strategy lets us represent the feature grid with highly
compact feature encoding and a dramatic reduction in storage size. Furthermore,
our 2D-3D hybrid feature grid design enhances the compactness of feature
encoding as the 3D grid includes main components while 2D grids capture
details. In our experiments, binary radiance field representation successfully
outperforms the reconstruction performance of state-of-the-art (SOTA) efficient
radiance field models with lower storage allocation. In particular, our model
achieves impressive results in static scene reconstruction, with a PSNR of
31.53 dB for Synthetic-NeRF scenes, 34.26 dB for Synthetic-NSVF scenes, 28.02
dB for Tanks and Temples scenes while only utilizing 0.7 MB, 0.8 MB, and 0.8 MB
of storage space, respectively. We hope the proposed binary radiance field
representation will make radiance fields more accessible without a storage
bottleneck.
- Abstract(参考訳): 本稿では,バイナリエンコーディングパラメータを用いたローカル機能を$+1$または$-1$のフォーマットでエンコードするバイナリ機能エンコーディングを用いた,ストレージ効率の高いラミアンスフィールド表現であるbinary radiance fields (birf)を提案する。
この双対化戦略により、高コンパクトな特徴符号化と劇的にストレージサイズを縮小した特徴グリッドを表現できる。
さらに,我々の2D-3Dハイブリッド機能グリッド設計は,2Dグリッドが細部を捉えている間に3Dグリッドが主成分を含むため,特徴符号化のコンパクト性を高める。
実験では,2値ラディアンス場表現は,記憶容量の低い高効率ラディアンス場モデル(SOTA)の再構成性能より優れていた。
特に,Synthetic-NeRFシーンのPSNRが31.53dB,Synthetic-NSVFシーンが34.26dB,TampとTemplesシーンが28.02dBであり,それぞれ0.7MB,0.8MB,0.8MBの記憶空間しか利用していない。
提案した二元放射場表現により、記憶ボトルネックなしに放射場をよりアクセスしやすくなることを期待する。
関連論文リスト
- Plenoptic PNG: Real-Time Neural Radiance Fields in 150 KB [29.267039546199094]
本稿では,3次元シーンを2次元画像から非常にコンパクトな表現に符号化することを目的とする。
様々なプラットフォームでリアルタイムに送信、復号化、レンダリングを可能にする。
論文 参考訳(メタデータ) (2024-09-24T03:06:22Z) - Mesh2NeRF: Direct Mesh Supervision for Neural Radiance Field Representation and Generation [51.346733271166926]
Mesh2NeRFは、3次元生成タスクのためのテクスチャメッシュから地上構造放射場を導出するアプローチである。
各種タスクにおけるMesh2NeRFの有効性を検証する。
論文 参考訳(メタデータ) (2024-03-28T11:22:53Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - VideoRF: Rendering Dynamic Radiance Fields as 2D Feature Video Streams [56.00479598817949]
VideoRFは、モバイルプラットフォーム上で動的ラディアンスフィールドのリアルタイムストリーミングとレンダリングを可能にする最初のアプローチである。
特徴画像ストリームを2次元ビデオコーデックで効率よく圧縮できることを示す。
我々は動的シーンのオンラインストリーミングとレンダリングを可能にするリアルタイムインタラクティブプレーヤーを開発した。
論文 参考訳(メタデータ) (2023-12-03T14:14:35Z) - Compact 3D Gaussian Representation for Radiance Field [14.729871192785696]
本研究では,3次元ガウス点数を削減するための学習可能なマスク戦略を提案する。
また、格子型ニューラルネットワークを用いて、ビュー依存色をコンパクトかつ効果的に表現することを提案する。
我々の研究は、3Dシーン表現のための包括的なフレームワークを提供し、ハイパフォーマンス、高速トレーニング、コンパクト性、リアルタイムレンダリングを実現しています。
論文 参考訳(メタデータ) (2023-11-22T20:31:16Z) - CAwa-NeRF: Instant Learning of Compression-Aware NeRF Features [0.0]
本稿では,圧縮対応NeRF特徴量(CAwa-NeRF)の即時学習について紹介する。
提案したインスタントラーニングパイプラインは,様々な静的シーンにおいて印象的な結果が得られる。
特に、単一のオブジェクトをマスクした背景シーンでは、CAwa-NeRFはPSNR (33 dB) を損なうことなく、元のサイズの機能グリッドを6% (1.2 MB) まで圧縮し、わずかに仮想損失 (32.31 dB) の2.4% (0.53 MB) まで圧縮する。
論文 参考訳(メタデータ) (2023-10-23T08:40:44Z) - MERF: Memory-Efficient Radiance Fields for Real-time View Synthesis in
Unbounded Scenes [61.01853377661283]
本稿では,ブラウザにおける大規模シーンのリアルタイムレンダリングを実現するメモリ効率のよいレイディアンスフィールド表現を提案する。
我々は,シーン座標を効率の良いレイボックス交叉を実現しつつ,境界体積にマッピングする新しい収縮関数を提案する。
論文 参考訳(メタデータ) (2023-02-23T18:59:07Z) - A Novel Light Field Coding Scheme Based on Deep Belief Network &
Weighted Binary Images for Additive Layered Displays [0.30458514384586394]
積層光減衰層は、広い視野深度、広い視野角、高解像度の光界ディスプレイを実装するためのアプローチである。
本稿では,Deep Belief Network(DBN)と重み付きバイナリ画像を利用した光場表現と符号化のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-04T08:18:06Z) - CLONeR: Camera-Lidar Fusion for Occupancy Grid-aided Neural
Representations [77.90883737693325]
本稿では,スパース入力センサビューから観測される大規模な屋外運転シーンをモデル化することで,NeRFを大幅に改善するCLONeRを提案する。
これは、NeRFフレームワーク内の占有率と色学習を、それぞれLiDARとカメラデータを用いてトレーニングされた個別のMulti-Layer Perceptron(MLP)に分離することで実現される。
さらに,NeRFモデルと平行に3D Occupancy Grid Maps(OGM)を構築する手法を提案し,この占有グリッドを利用して距離空間のレンダリングのために線に沿った点のサンプリングを改善する。
論文 参考訳(メタデータ) (2022-09-02T17:44:50Z) - Generative Modelling of BRDF Textures from Flash Images [50.660026124025265]
我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
論文 参考訳(メタデータ) (2021-02-23T18:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。