論文の概要: FisheyeGaussianLift: BEV Feature Lifting for Surround-View Fisheye Camera Perception
- arxiv url: http://arxiv.org/abs/2511.17210v1
- Date: Fri, 21 Nov 2025 12:42:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.020867
- Title: FisheyeGaussianLift: BEV Feature Lifting for Surround-View Fisheye Camera Perception
- Title(参考訳): FisheyeGaussian Lift: 周囲の魚眼カメラ認識のためのBEV機能リフティング
- Authors: Shubham Sonarghare, Prasad Deshpande, Ciaran Hogan, Deepika-Rani Kaliappan-Mahalingam, Ganesh Sistu,
- Abstract要約: マルチカメラの高解像度魚眼画像を処理する歪み認識型BEVセグメンテーションフレームワークを提案する。
各画像画素はガウスパラメータ化により3次元空間に持ち上げられ、空間的手段と異方性共分散を予測し、幾何的不確かさを明示的にモデル化する。
実験では、複雑な駐車や都市部での運転のシナリオにおいて強いセグメンテーション性能を示し、乾燥可能な地域では87.75%、厳しい魚眼の歪み下では57.26%のIoUスコアを達成している。
- 参考スコア(独自算出の注目度): 0.8374040635931297
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate BEV semantic segmentation from fisheye imagery remains challenging due to extreme non-linear distortion, occlusion, and depth ambiguity inherent to wide-angle projections. We present a distortion-aware BEV segmentation framework that directly processes multi-camera high-resolution fisheye images,utilizing calibrated geometric unprojection and per-pixel depth distribution estimation. Each image pixel is lifted into 3D space via Gaussian parameterization, predicting spatial means and anisotropic covariances to explicitly model geometric uncertainty. The projected 3D Gaussians are fused into a BEV representation via differentiable splatting, producing continuous, uncertainty-aware semantic maps without requiring undistortion or perspective rectification. Extensive experiments demonstrate strong segmentation performance on complex parking and urban driving scenarios, achieving IoU scores of 87.75% for drivable regions and 57.26% for vehicles under severe fisheye distortion and diverse environmental conditions.
- Abstract(参考訳): 魚眼画像からの正確なBEVセマンティックセグメンテーションは、広角投射に固有の極端に非線形な歪み、閉塞、深さのあいまいさのため、依然として困難である。
本稿では,マルチカメラの高解像度魚眼画像を直接処理する歪み認識型BEVセグメンテーションフレームワークを提案する。
各画像画素はガウスパラメータ化により3次元空間に持ち上げられ、空間的手段と異方性共分散を予測し、幾何的不確かさを明示的にモデル化する。
投影された3Dガウスアンは、識別可能なスプラッティングによってBEV表現に融合し、歪みや視点の修正を必要とせず、連続的で不確実性を認識したセマンティックマップを生成する。
大規模な実験は、複雑な駐車や都市運転のシナリオにおいて強力なセグメンテーション性能を示し、乾燥可能な地域では87.75%、厳しい魚眼の歪みと多様な環境条件下では57.26%のIoUスコアを達成している。
関連論文リスト
- PFDepth: Heterogeneous Pinhole-Fisheye Joint Depth Estimation via Distortion-aware Gaussian-Splatted Volumetric Fusion [61.6340987158734]
ヘテロジニアス多視点深度推定のための最初のピンホール・フィッシュアイ・フレームワークPFDepthを提案する。
PFDepthは、ピンホールと魚眼カメラの任意の組み合わせを、様々な内在と外生とで処理できる統一アーキテクチャを採用している。
我々は,現在の主流深度ネットワーク上でのKITTI-360およびRealHetデータセットに対して,PFDepthが最先端の性能を示すことを示す。
論文 参考訳(メタデータ) (2025-09-30T09:38:59Z) - PIS3R: Very Large Parallax Image Stitching via Deep 3D Reconstruction [5.816094524098354]
画像縫合は、異なる視点から撮影された2つの画像を、シームレスで広い1つの画像に整列することを目的としている。
既存の縫合法の多くは、このような画像を大きな視差で効果的に扱うのに苦労している。
我々は, 深部3次元再構成という新しい概念を基礎として, 非常に大きな視差に対して頑健なPSS3Rを提案する。
論文 参考訳(メタデータ) (2025-08-06T09:18:45Z) - AlignDiff: Learning Physically-Grounded Camera Alignment via Diffusion [0.5277756703318045]
本稿では,カメラ内在パラメータと外在パラメータをジェネリック・レイ・カメラ・モデルを用いて扱う新しいフレームワークを提案する。
従来のアプローチとは異なり、AlignDiffは意味論から幾何学的特徴へ焦点を移し、局所歪みのより正確なモデリングを可能にした。
実験により,提案手法は,推定光束の角誤差を8.2度,全体のキャリブレーション精度で著しく低減し,課題のある実世界のデータセットに対する既存手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2025-03-27T14:59:59Z) - HV-BEV: Decoupling Horizontal and Vertical Feature Sampling for Multi-View 3D Object Detection [34.72603963887331]
視覚に基づく多視点環境認識システムの適用は、自律運転技術においてますます認識されている。
現在の最先端ソリューションは主に、暗黙の深度予測を通じて、各カメラビューからの画像をBEV空間にエンコードする。
我々は,textbfBEVグリッドクエリのパラダイムにおける特徴サンプリングを,textbfHorizontal特徴集約に分離する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-12-25T11:49:14Z) - RoFIR: Robust Fisheye Image Rectification Framework Impervious to Optical Center Deviation [88.54817424560056]
局所歪みの度合いと方向を測定する歪みベクトルマップ(DVM)を提案する。
DVMを学習することで、大域的な歪みパターンに頼ることなく、各ピクセルの局所歪みを独立に識別することができる。
事前学習段階では、歪みベクトルマップを予測し、各画素の局所歪み特徴を知覚する。
微調整段階では、魚眼画像修正のための画素単位のフローマップを予測する。
論文 参考訳(メタデータ) (2024-06-27T06:38:56Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Wide-angle Image Rectification: A Survey [86.36118799330802]
広角画像は、基礎となるピンホールカメラモデルに反する歪みを含む。
これらの歪みを補正することを目的とした画像修正は、これらの問題を解決することができる。
本稿では、異なるアプローチで使用されるカメラモデルについて、詳細な説明と議論を行う。
次に,従来の幾何学に基づく画像修正手法と深層学習法の両方について検討する。
論文 参考訳(メタデータ) (2020-10-30T17:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。