論文の概要: RANRAC: Robust Neural Scene Representations via Random Ray Consensus
- arxiv url: http://arxiv.org/abs/2312.09780v1
- Date: Fri, 15 Dec 2023 13:33:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 15:54:43.111809
- Title: RANRAC: Robust Neural Scene Representations via Random Ray Consensus
- Title(参考訳): RANRAC:ランダム光によるロバストなニューラルシーン表現
- Authors: Benno Buschmann, Andreea Dogaru, Elmar Eisemann, Michael Weinmann,
Bernhard Egger
- Abstract要約: 本稿では,3次元物体を隠蔽・散逸した画像を扱う頑健な再構成アルゴリズムRANRACを紹介する。
本ソリューションは,光フィールドネットワークによる単一ショット再構成を支援する。
本研究は,8dBPSNRをベースラインと比較し,包括的シナリオにおける新規ビュー合成の大幅な改善を報告した。
- 参考スコア(独自算出の注目度): 13.047834122698765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce RANRAC, a robust reconstruction algorithm for 3D objects
handling occluded and distracted images, which is a particularly challenging
scenario that prior robust reconstruction methods cannot deal with. Our
solution supports single-shot reconstruction by involving light-field networks,
and is also applicable to photo-realistic, robust, multi-view reconstruction
from real-world images based on neural radiance fields. While the algorithm
imposes certain limitations on the scene representation and, thereby, the
supported scene types, it reliably detects and excludes inconsistent
perspectives, resulting in clean images without floating artifacts. Our
solution is based on a fuzzy adaption of the random sample consensus paradigm,
enabling its application to large scale models. We interpret the minimal number
of samples to determine the model parameters as a tunable hyperparameter. This
is applicable, as a cleaner set of samples improves reconstruction quality.
Further, this procedure also handles outliers. Especially for conditioned
models, it can result in the same local minimum in the latent space as would be
obtained with a completely clean set. We report significant improvements for
novel-view synthesis in occluded scenarios, of up to 8dB PSNR compared to the
baseline.
- Abstract(参考訳): 今回我々は,オクルード画像およびオクルード画像を扱う3次元物体に対するロバスト再構成アルゴリズムであるranracを紹介する。
本ソリューションは,光電界ネットワークを介する単発再構成をサポートし,ニューラルネットワークによる実世界画像からの光リアリスティック,ロバスト,マルチビュー再構成にも応用できる。
このアルゴリズムはシーン表現に一定の制限を課すため、サポートされているシーンタイプは、一貫性のない視点を確実に検出し排除し、フローティングアーティファクトなしでクリーンな画像を生成する。
我々のソリューションはランダムサンプルコンセンサスパラダイムのファジィ適応に基づいており、大規模モデルへの適用を可能にしている。
モデルパラメータを可変ハイパーパラメータとして決定するために、最小サンプル数を解釈する。
これは、よりクリーンなサンプルセットが再構築品質を向上させるため適用できる。
さらに、この手順は外れ値も処理する。
特に条件付きモデルの場合、完全にクリーンな集合で得られるような潜在空間における局所最小値となる。
本研究は,8dBPSNRをベースラインと比較し,包括シナリオにおける新規ビュー合成の大幅な改善を報告した。
関連論文リスト
- Uncertainty modeling for fine-tuned implicit functions [10.902709236602536]
入射関数は、スパースビューから詳細な物体形状を再構成するコンピュータビジョンにおいて重要な役割を担っている。
暗黙関数における不確実性推定手法であるDropsemblesを導入する。
その結果,Dropsemblesは深層アンサンブルの精度とキャリブレーションレベルを達成するが,計算コストは著しく低いことがわかった。
論文 参考訳(メタデータ) (2024-06-17T20:46:18Z) - Spatial-and-Frequency-aware Restoration method for Images based on
Diffusion Models [7.947387272047602]
画像復元のための空間・周波数対応拡散モデルSaFaRIを提案する。
本モデルでは,空間領域と周波数領域の両領域において画像の忠実度を保ち,再現性の向上を図っている。
我々の徹底的な評価は、SaFaRIがImageNetデータセットとFFHQデータセットの両方で最先端のパフォーマンスを実現していることを示している。
論文 参考訳(メタデータ) (2024-01-31T07:11:01Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Towards High-quality HDR Deghosting with Conditional Diffusion Models [88.83729417524823]
高ダイナミックレンジ(LDR)画像は、既存のディープニューラルネットワーク(DNN)技術により、複数の低ダイナミックレンジ(LDR)画像から復元することができる。
DNNは、LDR画像が飽和度と大きな動きを持つ場合、ゴーストアーティファクトを生成する。
拡散モデルの条件としてLDR特徴を利用する画像生成としてHDRデゴースト問題を定式化する。
論文 参考訳(メタデータ) (2023-11-02T01:53:55Z) - BID-NeRF: RGB-D image pose estimation with inverted Neural Radiance
Fields [0.0]
Inverted Neural Radiance Fields (iNeRF) アルゴリズムの改良を目標とし、画像ポーズ推定問題をNeRFに基づく反復線形最適化として定義する。
NeRFは、現実世界のシーンやオブジェクトのフォトリアリスティックな新しいビューを合成できる新しい空間表現モデルである。
論文 参考訳(メタデータ) (2023-10-05T14:27:06Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Near-filed SAR Image Restoration with Deep Learning Inverse Technique: A
Preliminary Study [5.489791364472879]
近接場合成開口レーダ(SAR)は、ターゲットの散乱分布ホットスポットの高解像度画像を提供する。
一方、撮像の結果は、サイドローブ、クラッタ、ノイズから必然的に劣化する。
イメージを復元するために、現在の手法では、例えば、点拡散関数(PSF)は空間的に一貫したものであり、ターゲットはスパース点散乱器などで構成されている。
我々は、分解モデルを空間的に可変な複素畳み込みモデルに再構成し、近接場SARのシステム応答を考慮した。
モデルに基づくディープラーニングネットワークは、復元するために設計されている
論文 参考訳(メタデータ) (2022-11-28T01:28:33Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Designing a Practical Degradation Model for Deep Blind Image
Super-Resolution [134.9023380383406]
単一画像スーパーレゾリューション (sisr) 法は, 推定劣化モデルが実画像から逸脱した場合はうまく動作しない。
本稿では, ランダムにシャッフルされたブラー, ダウンサンプリング, ノイズ劣化からなる, より複雑で実用的な劣化モデルを提案する。
論文 参考訳(メタデータ) (2021-03-25T17:40:53Z) - SIR: Self-supervised Image Rectification via Seeing the Same Scene from
Multiple Different Lenses [82.56853587380168]
本稿では、異なるレンズからの同一シーンの歪み画像の補正結果が同一であるべきという重要な知見に基づいて、新しい自己監督画像補正法を提案する。
我々は、歪みパラメータから修正画像を生成し、再歪み画像を生成するために、微分可能なワープモジュールを利用する。
本手法は,教師付きベースライン法や代表的最先端手法と同等あるいはそれ以上の性能を実現する。
論文 参考訳(メタデータ) (2020-11-30T08:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。