論文の概要: Through the Curved Cover: Synthesizing Cover Aberrated Scenes with Refractive Field
- arxiv url: http://arxiv.org/abs/2411.06365v1
- Date: Sun, 10 Nov 2024 05:32:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:09:23.202956
- Title: Through the Curved Cover: Synthesizing Cover Aberrated Scenes with Refractive Field
- Title(参考訳): 曲がりくねったカバー:屈折場を有するカバー収差シーンの合成
- Authors: Liuyue Xie, Jiancong Guo, Laszlo A. Jeni, Zhiheng Jia, Mingyang Li, Yunwen Zhou, Chao Guo,
- Abstract要約: 我々は、下流拡張現実感アプリケーションのための保護カバーによる新しいビュー合成を可能にするために、SynthCoverを紹介した。
合成シーンと実世界のシーンの実験は、保護カバーを通して見るシーンを正確にモデル化する我々の方法の能力を実証している。
また, 異なる曲面曲率の被覆で得られた合成配列を用いて, 種々の被覆測地に対して, モデルが良好に調整可能であることを示す。
- 参考スコア(独自算出の注目度): 5.204991272047446
- License:
- Abstract: Recent extended reality headsets and field robots have adopted covers to protect the front-facing cameras from environmental hazards and falls. The surface irregularities on the cover can lead to optical aberrations like blurring and non-parametric distortions. Novel view synthesis methods like NeRF and 3D Gaussian Splatting are ill-equipped to synthesize from sequences with optical aberrations. To address this challenge, we introduce SynthCover to enable novel view synthesis through protective covers for downstream extended reality applications. SynthCover employs a Refractive Field that estimates the cover's geometry, enabling precise analytical calculation of refracted rays. Experiments on synthetic and real-world scenes demonstrate our method's ability to accurately model scenes viewed through protective covers, achieving a significant improvement in rendering quality compared to prior methods. We also show that the model can adjust well to various cover geometries with synthetic sequences captured with covers of different surface curvatures. To motivate further studies on this problem, we provide the benchmarked dataset containing real and synthetic walkable scenes captured with protective cover optical aberrations.
- Abstract(参考訳): 最近の拡張現実ヘッドセットやフィールドロボットは、前面カメラを環境の危険や落下から守るためにカバーを採用している。
カバーの表面の不規則さは、ぼやけや非パラメトリック歪みのような光学的収差をもたらす可能性がある。
光学収差を持つシーケンスから合成するために、NeRFや3Dガウススプティングのような新しいビュー合成法が不備である。
この課題に対処するために、我々は、下流拡張現実アプリケーションのための保護カバーによる新しいビュー合成を可能にするSynthCoverを紹介した。
SynthCoverは反射場を用いてカバーの幾何学を推定し、屈折光の正確な解析計算を可能にする。
合成シーンと実世界のシーンの実験では,保護カバーを通して見るシーンを正確にモデル化し,従来の手法に比べてレンダリング品質が大幅に向上した。
また, 異なる曲面曲率の被覆で得られた合成配列を用いて, 種々の被覆測地に対して, モデルが良好に調整可能であることを示す。
この問題に関するさらなる研究を動機づけるために、我々は、保護カバー光収差でキャプチャされたリアルおよび合成歩行可能なシーンを含むベンチマークデータセットを提供する。
関連論文リスト
- Efficient Depth-Guided Urban View Synthesis [52.841803876653465]
高速フィードフォワード推論とシーンごとのファインチューニングのための効率的な深層誘導型都市ビュー合成(EDUS)を提案する。
EDUSは、粗い入力画像から一般化可能な都市ビュー合成を可能にするためのガイダンスとして、ノイズの多い幾何学的先行情報を利用する。
その結果,EDUSは高速なテスト時間最適化と組み合わせることで,スパース・ビュー・セッティングにおける最先端性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-07-17T08:16:25Z) - RANRAC: Robust Neural Scene Representations via Random Ray Consensus [12.161889666145127]
RANRAC(RANdom RAy Consensus)は、一貫性のないデータの影響を排除するための効率的な手法である。
我々はRANSACパラダイムのファジィ適応を定式化し、大規模モデルへの適用を可能にした。
その結果, 新規な視点合成のための最先端のロバストな手法と比較して, 顕著な改善が見られた。
論文 参考訳(メタデータ) (2023-12-15T13:33:09Z) - TensoIR: Tensorial Inverse Rendering [51.57268311847087]
テンソルIRはテンソル分解とニューラルフィールドに基づく新しい逆レンダリング手法である。
TensoRFは、放射場モデリングのための最先端のアプローチである。
論文 参考訳(メタデータ) (2023-04-24T21:39:13Z) - Neural Microfacet Fields for Inverse Rendering [54.15870869037466]
本研究では,シーンの画像から材料,幾何学,環境照明を復元する手法を提案する。
本手法では, 各試料を(潜在的に不透明な)表面として扱うことにより, ボリューム設定内にマイクロファセット反射率モデルを用いる。
論文 参考訳(メタデータ) (2023-03-31T05:38:13Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - IntrinsicNeRF: Learning Intrinsic Neural Radiance Fields for Editable
Novel View Synthesis [90.03590032170169]
内在性ニューラルレンダリング法に内在性分解を導入した内在性ニューラルレイディアンス場(IntrinsicNeRF)を提案する。
そこで,本研究では,オブジェクト固有・ルームスケールシーンと合成・実単語データの両方を用いて,一貫した本質的な分解結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-02T22:45:11Z) - InfoNeRF: Ray Entropy Minimization for Few-Shot Neural Volume Rendering [55.70938412352287]
ニューラルな暗黙表現に基づく数ショットの新規ビュー合成のための情報理論正規化手法を提案する。
提案手法は,不十分な視点で発生する潜在的な復元の不整合を最小化する。
複数の標準ベンチマークにおいて,既存のニューラルビュー合成手法と比較して一貫した性能向上を実現している。
論文 参考訳(メタデータ) (2021-12-31T11:56:01Z) - Light Field View Synthesis via Aperture Disparity and Warping Confidence
Map [47.046276641506786]
本稿では,スパース画像の集合から任意のカメラ位置からビューを合成するための学習的アプローチを提案する。
この新たなビュー合成の鍵となる課題は、異なる入力画像からのビューが光路の障害物のために一貫性がない場合の再構成プロセスから生じる。
論文 参考訳(メタデータ) (2020-09-07T09:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。