論文の概要: Evaluating Fisheye-Compatible 3D Gaussian Splatting Methods on Real Images Beyond 180 Degree Field of View
- arxiv url: http://arxiv.org/abs/2508.06968v1
- Date: Sat, 09 Aug 2025 12:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.632867
- Title: Evaluating Fisheye-Compatible 3D Gaussian Splatting Methods on Real Images Beyond 180 Degree Field of View
- Title(参考訳): 180度視野を超える実画像における魚眼対応型3次元ガウス散乱法の評価
- Authors: Ulas Gunes, Matias Turkulainen, Juho Kannala, Esa Rahtu,
- Abstract要約: 魚眼をベースとした3Dガウス法(魚眼GS法)と3DGUT法(魚眼GS法と3DGUT法)の視界180度を超える実画像上での最初の評価を行った。
我々は200度の魚眼カメラで捉えた屋内と屋外の両方のシーンについて調査した。
- 参考スコア(独自算出の注目度): 19.622011456518614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first evaluation of fisheye-based 3D Gaussian Splatting methods, Fisheye-GS and 3DGUT, on real images with fields of view exceeding 180 degree. Our study covers both indoor and outdoor scenes captured with 200 degree fisheye cameras and analyzes how each method handles extreme distortion in real world settings. We evaluate performance under varying fields of view (200 degree, 160 degree, and 120 degree) to study the tradeoff between peripheral distortion and spatial coverage. Fisheye-GS benefits from field of view (FoV) reduction, particularly at 160 degree, while 3DGUT remains stable across all settings and maintains high perceptual quality at the full 200 degree view. To address the limitations of SfM-based initialization, which often fails under strong distortion, we also propose a depth-based strategy using UniK3D predictions from only 2-3 fisheye images per scene. Although UniK3D is not trained on real fisheye data, it produces dense point clouds that enable reconstruction quality on par with SfM, even in difficult scenes with fog, glare, or sky. Our results highlight the practical viability of fisheye-based 3DGS methods for wide-angle 3D reconstruction from sparse and distortion-heavy image inputs.
- Abstract(参考訳): 魚眼をベースとした3Dガウス法(魚眼GS法)と3DGUT法(魚眼GS法と3DGUT法)の視界180度を超える実画像上での最初の評価を行った。
そこで本研究では,200度の魚眼カメラで捉えた屋内と屋外の両方のシーンを取り上げ,実世界の環境において,それぞれの手法が極端な歪みに対処する方法について分析した。
様々な視野(200度,160度,120度)での性能評価を行い,周辺歪みと空間被覆とのトレードオフについて検討した。
Fisheye-GSは視野(FoV)の縮小(特に160度)から恩恵を受ける一方、3DGUTは全ての設定で安定であり、フル200度ビューで高い知覚品質を維持している。
また,SfMに基づく初期化の限界に対処するため,シーンごとの2~3つの魚眼画像からのUniK3D予測を用いた奥行き戦略を提案する。
UniK3Dは実際の魚眼データに基づいて訓練されていないが、霧や光沢、空のある困難な場面でも、SfMと同等に再現できる密度の高い点雲を生成する。
本研究は,魚眼3DGS法によるスパーク画像と歪み画像からの広角3D再構成の実用性を強調した。
関連論文リスト
- Exploring Surround-View Fisheye Camera 3D Object Detection [44.09164098759971]
本研究では,サラウンドビュー魚眼カメラシステムによるエンドツーエンド3Dオブジェクト検出の実現の可能性について検討する。
魚眼画像のユニークな形状を主流検出フレームワークに組み込む2つの手法を開発した。
魚眼3DOD実験の結果,我々の魚眼互換モデルでは,基準法よりも最大6.2%精度が向上していることがわかった。
論文 参考訳(メタデータ) (2025-11-24T02:28:56Z) - FIORD: A Fisheye Indoor-Outdoor Dataset with LIDAR Ground Truth for 3D Scene Reconstruction and Benchmarking [29.634708606525727]
本研究では,シーン再構築作業に適した魚眼画像データセットを提案する。
2つの200度の魚眼レンズを使って、私たちのデータセットは5つの屋内と5つの屋外のシーンの完全な360度カバレッジを提供します。
それぞれのシーンには、SfM点雲と正確なLIDAR由来の高密度な点雲があり、幾何学的な地平線として使用できる。
論文 参考訳(メタデータ) (2025-04-02T13:41:23Z) - UniK3D: Universal Camera Monocular 3D Estimation [62.06785782635153]
カメラをモデル化可能なモノクル3D推定法として,UniK3Dを提案する。
本手法では, 球面3次元表現を導入し, カメラとシーンの形状をよりよく切り離すことができる。
13の多様なデータセットに対する包括的なゼロショット評価は、3D、ディープ、カメラメトリクスにわたるUniK3Dの最先端のパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-03-20T17:49:23Z) - DoF-Gaussian: Controllable Depth-of-Field for 3D Gaussian Splatting [52.52398576505268]
3D-GSのための制御可能な深度法であるDoF-Gaussianを導入する。
我々は、DoF効果を制御するための幾何光学原理に基づくレンズベースイメージングモデルを開発した。
私たちのフレームワークはカスタマイズ可能で、様々なインタラクティブアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2025-03-02T05:57:57Z) - FisheyeDepth: A Real Scale Self-Supervised Depth Estimation Model for Fisheye Camera [8.502741852406904]
魚眼カメラに適した自己監督深度推定モデルである魚眼深度について述べる。
魚眼カメラモデルを訓練中の投射と再投射の段階に組み込んで画像歪みの処理を行う。
また、連続するフレーム間の幾何学的投影に実際のポーズ情報を組み込んで、従来のポーズネットワークで推定されたポーズを置き換える。
論文 参考訳(メタデータ) (2024-09-23T14:31:42Z) - Fisheye-GS: Lightweight and Extensible Gaussian Splatting Module for Fisheye Cameras [17.75361921797657]
魚眼カメラのプロジェクション変換と勾配を再現する新しい手法である魚眼-GSを紹介する。
我々の手法は他の効率的な3Dレンダリング手法にモジュールとしてシームレスに統合することができる。
論文 参考訳(メタデータ) (2024-09-07T07:53:40Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Towards Accurate Reconstruction of 3D Scene Shape from A Single
Monocular Image [91.71077190961688]
まず、未知のスケールまで深さを予測し、単一の単眼画像からシフトする2段階のフレームワークを提案する。
次に、3Dポイントの雲のデータを利用して、奥行きの変化とカメラの焦点距離を予測し、3Dシーンの形状を復元します。
我々は9つの未知のデータセットで深度モデルを検証し、ゼロショット評価で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-28T16:20:14Z) - FisheyeEX: Polar Outpainting for Extending the FoV of Fisheye Lens [84.12722334460022]
魚眼レンズは、広視野(FoV)のため、計算写真や運転支援における応用が増大する
本稿では,魚眼レンズのFoVを拡張した魚眼EX法を提案する。
以上の結果から,本手法は従来の魚眼画像よりも27%多く,最先端の手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-06-12T21:38:50Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。