論文の概要: HashCC: Lightweight Method to Improve the Quality of the Camera-less
NeRF Scene Generation
- arxiv url: http://arxiv.org/abs/2305.04296v1
- Date: Sun, 7 May 2023 14:53:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 16:30:34.394190
- Title: HashCC: Lightweight Method to Improve the Quality of the Camera-less
NeRF Scene Generation
- Title(参考訳): HashCC:カメラレスNeRFシーンの画質向上のための軽量化手法
- Authors: Jan Olszewski
- Abstract要約: 本来のアルゴリズムが意味のあるシーン表現を学習するための重要な要件は、データセット内の各画像のカメラポーズ情報である。
現在のアプローチでは、シーンの神経表現を学習しながら、近似カメラの位置を学習することで、この仮定を適度な成功で周航しようと試みている。
これは複雑なカメラモデルが必要で、長く複雑なトレーニングプロセスを引き起こしたり、描画シーンのテクスチャやシャープなディテールが欠如している。
本研究では,Hash Color Correction (HashCC)を紹介した。HashCCはニューラルラジアンスフィールドのレンダリング画像の品質を向上させる軽量な手法で,画像セットのカメラ位置が不明な状況にも適用可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Radiance Fields has become a prominent method of scene generation via
view synthesis. A critical requirement for the original algorithm to learn
meaningful scene representation is camera pose information for each image in a
data set. Current approaches try to circumnavigate this assumption with
moderate success, by learning approximate camera positions alongside learning
neural representations of a scene. This requires complicated camera models,
causing a long and complicated training process, or results in a lack of
texture and sharp details in rendered scenes. In this work we introduce Hash
Color Correction (HashCC) -- a lightweight method for improving Neural Radiance
Fields rendered image quality, applicable also in situations where camera
positions for a given set of images are unknown.
- Abstract(参考訳): ニューラルラジアンス場はビュー合成によるシーン生成の顕著な方法となっている。
オリジナルアルゴリズムが意味のあるシーン表現を学ぶための重要な要件は、データセット内の各画像のカメラポーズ情報である。
現在のアプローチでは、シーンの神経表現を学習しながら、近似カメラの位置を学習することで、この仮定を適度な成功で回避しようとする。
これは複雑なカメラモデルが必要で、長く複雑なトレーニングプロセスを引き起こしたり、描画シーンのテクスチャやシャープな詳細が欠如する。
本稿では,ハッシュ色補正(hashcc)について紹介する。ニューラルネットワークの輝度場をレンダリングした画像品質を改善するための軽量な手法であり,与えられた画像セットのカメラ位置が不明な場合にも適用できる。
関連論文リスト
- Tell Me What You See: Text-Guided Real-World Image Denoising [31.43307762723943]
画像キャプション情報を追加することで、合成画像と実世界の画像のデノナイズと再構成が大幅に向上することを示す。
本稿では,シーンを撮影する撮影者が容易に行えるように,シーンを事前に記述する代替手段として提案する。
論文 参考訳(メタデータ) (2023-12-15T20:35:07Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Robust Camera Pose Refinement for Multi-Resolution Hash Encoding [19.655282240361835]
ニューラルレンダリングの計算コストを削減するため,マルチレゾリューションハッシュ符号化が提案されている。
カメラのポーズを校正し、効率的なマルチ解像度ハッシュ符号化を用いて幾何学的表現を学習するための共同最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-03T06:49:27Z) - Visual Localization via Few-Shot Scene Region Classification [84.34083435501094]
ビジュアル(再)ローカライゼーションは、既知のシーンでキャプチャされたクエリイメージの6-DoFカメラのポーズを推定する問題に対処する。
画像画素からシーン座標へのマッピングを記憶することで,この問題を解決する。
シーン領域の分類手法を提案する。
論文 参考訳(メタデータ) (2022-08-14T22:39:02Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Neural Radiance Transfer Fields for Relightable Novel-view Synthesis
with Global Illumination [63.992213016011235]
本稿では,ニューラル計算された放射光伝達関数を学習し,新しい視点下でのシーンリライティング手法を提案する。
本手法は,1つの未知の照明条件下で,シーンの実際の画像に対してのみ監視することができる。
その結果, シーンパラメータのアンタングルの復元は, 現状よりも有意に向上していることがわかった。
論文 参考訳(メタデータ) (2022-07-27T16:07:48Z) - Spatio-Temporal Outdoor Lighting Aggregation on Image Sequences using
Transformer Networks [23.6427456783115]
本研究は,画像からのノイズ推定を集約した屋外照明推定に焦点をあてる。
ディープニューラルネットワークに基づく最近の研究は、単一画像の照明推定に有望な結果を示しているが、堅牢性に悩まされている。
画像シーケンスの角領域と時間領域でサンプリングされた複数の画像ビューからの照明推定値を組み合わせることで、この問題に対処する。
論文 参考訳(メタデータ) (2022-02-18T14:11:16Z) - Exploiting Raw Images for Real-Scene Super-Resolution [105.18021110372133]
本稿では,合成データと実撮影画像とのギャップを埋めるために,実シーンにおける単一画像の超解像化の問題について検討する。
本稿では,デジタルカメラの撮像過程を模倣して,よりリアルなトレーニングデータを生成する手法を提案する。
また、原画像に記録された放射情報を活用するために、2分岐畳み込みニューラルネットワークを開発した。
論文 参考訳(メタデータ) (2021-02-02T16:10:15Z) - Neural Sparse Voxel Fields [151.20366604586403]
高速かつ高品質な自由視点レンダリングのためのニューラルシーン表現であるNeural Sparse Voxel Fields (NSVF)を紹介する。
NSVFは、各細胞の局所特性をモデル化するために、スパース・ボクセル・オクツリーで組織された、ボクセルに結合した暗黙のフィールドのセットを定義する。
提案手法は, 高い品質を達成しつつ, 推論時の最先端技術(NeRF(Mildenhall et al., 2020))よりも10倍以上高速である。
論文 参考訳(メタデータ) (2020-07-22T17:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。