論文の概要: Neural Lens Modeling
- arxiv url: http://arxiv.org/abs/2304.04848v1
- Date: Mon, 10 Apr 2023 20:09:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-04-12 16:54:31.548473
- Title: Neural Lens Modeling
- Title(参考訳): ニューラルレンズモデリング
- Authors: Wenqi Xian and Alja\v{z} Bo\v{z}i\v{c} and Noah Snavely and Christoph
Lassner
- Abstract要約: NeuroLens(ニューロレンス)は、点投影と光線鋳造に使用できる歪みと磁化のための神経レンズモデルである。
古典的なキャリブレーションターゲットを使用してプリキャプチャのキャリブレーションを行うことができ、後に3D再構成の際にキャリブレーションやリファインメントを行うために使用できる。
このモデルは、多くのレンズタイプにまたがって一般化されており、既存の3D再構成とレンダリングシステムとの統合は容易である。
- 参考スコア(独自算出の注目度): 50.57409162437732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent methods for 3D reconstruction and rendering increasingly benefit from
end-to-end optimization of the entire image formation process. However, this
approach is currently limited: effects of the optical hardware stack and in
particular lenses are hard to model in a unified way. This limits the quality
that can be achieved for camera calibration and the fidelity of the results of
3D reconstruction. In this paper, we propose NeuroLens, a neural lens model for
distortion and vignetting that can be used for point projection and ray casting
and can be optimized through both operations. This means that it can
(optionally) be used to perform pre-capture calibration using classical
calibration targets, and can later be used to perform calibration or refinement
during 3D reconstruction, e.g., while optimizing a radiance field. To evaluate
the performance of our proposed model, we create a comprehensive dataset
assembled from the Lensfun database with a multitude of lenses. Using this and
other real-world datasets, we show that the quality of our proposed lens model
outperforms standard packages as well as recent approaches while being much
easier to use and extend. The model generalizes across many lens types and is
trivial to integrate into existing 3D reconstruction and rendering systems.
- Abstract(参考訳): 近年の3次元再構成とレンダリングの手法は、画像形成プロセス全体のエンドツーエンド最適化の恩恵を受けている。
しかし、このアプローチは現在制限されており、光学ハードウェアスタックと特にレンズの効果は統一された方法でのモデリングが困難である。
これにより、カメラのキャリブレーションで得られる品質と、3d再構成の結果の忠実さが制限される。
本稿では、点投影と光線キャスティングに使用でき、両方の操作で最適化できる、歪みと磁化のためのニューロレンズモデルであるNeuroLensを提案する。
これは、(オプションで)古典的なキャリブレーション目標を用いた事前キャリブレーションの実行に使用でき、後に3d再構成中のキャリブレーションやリファインメント(例えば、放射場を最適化するなど)に使用できることを意味する。
提案モデルの性能を評価するため,多数のレンズを用いたLensfunデータベースから収集した包括的データセットを作成する。
これや他の実世界のデータセットを用いて、提案したレンズモデルの品質が標準パッケージや最近のアプローチより優れており、使用および拡張が容易であることを示す。
このモデルは多数のレンズタイプにまたがって一般化されており、既存の3d再構成およびレンダリングシステムと統合することは自明である。
関連論文リスト
- AlignDiff: Learning Physically-Grounded Camera Alignment via Diffusion [0.5277756703318045]
本稿では,カメラ内在パラメータと外在パラメータをジェネリック・レイ・カメラ・モデルを用いて扱う新しいフレームワークを提案する。
従来のアプローチとは異なり、AlignDiffは意味論から幾何学的特徴へ焦点を移し、局所歪みのより正確なモデリングを可能にした。
実験により,提案手法は,推定光束の角誤差を8.2度,全体のキャリブレーション精度で著しく低減し,課題のある実世界のデータセットに対する既存手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2025-03-27T14:59:59Z) - HORT: Monocular Hand-held Objects Reconstruction with Transformers [61.36376511119355]
モノクロ画像から手持ちの物体を3Dで再構成することは、コンピュータビジョンにおいて重要な課題である。
ハンドヘルドオブジェクトの高密度な3次元点群を効率的に再構成するトランスフォーマーモデルを提案する。
提案手法は,高速な推測速度で最先端の精度を達成し,画像の幅を最適化する。
論文 参考訳(メタデータ) (2025-03-27T09:45:09Z) - Self-Calibrating Gaussian Splatting for Large Field of View Reconstruction [30.529707438964596]
本稿では,カメラパラメータ,レンズ歪み,3次元ガウス表現を協調的に最適化する自己校正フレームワークを提案する。
本手法により,広角レンズで撮影した大視野視野(FOV)画像から高品質なシーン再構成が可能となり,少ない画像からシーンをモデル化することができる。
論文 参考訳(メタデータ) (2025-02-13T18:15:10Z) - Towards Unified Structured Light Optimization [2.4823372746556442]
構造光(SL)3次元再構成は、物体の表面の正確な形状を捉える。
多様な照明条件やオブジェクトタイプ,さまざまなタイプのSLに適応可能な,SL最適化のための統一フレームワークを提案する。
主なコントリビューションには、プロジェクタの新たなグローバルマッチング方法があり、プロジェクタとカメラの正確なアライメントを可能にする。
論文 参考訳(メタデータ) (2025-01-24T17:29:17Z) - Towards End-to-End Neuromorphic Voxel-based 3D Object Reconstruction Without Physical Priors [4.459934616871806]
ニューロモルフィックカメラを用いた高密度ボクセル3次元再構成のためのエンドツーエンド手法を提案する。
本手法は, ベースライン法に比べて54.6%の再現精度向上を実現している。
論文 参考訳(メタデータ) (2025-01-01T06:07:03Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - GGRt: Towards Pose-free Generalizable 3D Gaussian Splatting in Real-time [112.32349668385635]
GGRtは、現実のカメラポーズの必要性を軽減する、一般化可能な新しいビュー合成のための新しいアプローチである。
最初のポーズフリーの一般化可能な3D-GSフレームワークとして、GGRtは$ge$5 FPSで、リアルタイムレンダリングは$ge$100 FPSで実現している。
論文 参考訳(メタデータ) (2024-03-15T09:47:35Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - Optical Aberration Correction in Postprocessing using Imaging Simulation [17.331939025195478]
モバイル写真の人気は増え続けている。
最近のカメラは、これらの修正作業の一部を光学設計から後処理システムに移行した。
光学収差による劣化を回復するための実用的手法を提案する。
論文 参考訳(メタデータ) (2023-05-10T03:20:39Z) - Adaptive Joint Optimization for 3D Reconstruction with Differentiable
Rendering [22.2095090385119]
完璧に再構成された3Dモデルを考えると、従来の手法は幾何学、テクスチャ、カメラのポーズの洗練に重点を置いてきた。
本稿では、カメラポーズ、幾何学、テクスチャの最適化を統一されたフレームワークに統合する、微分可能レンダリングに基づく新しい最適化手法を提案する。
微分可能レンダリングを用いることで、3Dモデルをさらに改善し、よりフォトリアリスティックにすることができる。
論文 参考訳(メタデータ) (2022-08-15T04:32:41Z) - Neural 3D Reconstruction in the Wild [86.6264706256377]
そこで我々は,インターネット写真コレクションから効率よく高精度な表面再構成を実現する新しい手法を提案する。
そこで本研究では,これらのシーンにおける再構成性能を評価するための新しいベンチマークとプロトコルを提案する。
論文 参考訳(メタデータ) (2022-05-25T17:59:53Z) - Unrolled Primal-Dual Networks for Lensless Cameras [0.45880283710344055]
教師付き原始二重再構成法を学習することで,文献における画像品質の整合性が得られることを示す。
この改善は、学習可能な前方モデルと随伴モデルとを学習された原始双対最適化フレームワークに組み込むことで、再構成画像の品質を向上できるという発見に起因している。
論文 参考訳(メタデータ) (2022-03-08T19:21:39Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - A-NeRF: Surface-free Human 3D Pose Refinement via Neural Rendering [13.219688351773422]
本稿では,自己教師型でユーザの体積体モデルを学習する単眼モーションキャプチャのためのテスト時間最適化手法を提案する。
我々のアプローチは自己監督的であり、外観、ポーズ、および3D形状のための追加の真実ラベルを必要としない。
本研究では, 識別的ポーズ推定手法と表面自由解析-合成による識別的ポーズ推定手法の組み合わせが, 純粋に識別的ポーズ推定手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-02-11T18:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。