論文の概要: REL-SF4PASS: Panoramic Semantic Segmentation with REL Depth Representation and Spherical Fusion
- arxiv url: http://arxiv.org/abs/2601.16788v1
- Date: Fri, 23 Jan 2026 14:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.724709
- Title: REL-SF4PASS: Panoramic Semantic Segmentation with REL Depth Representation and Spherical Fusion
- Title(参考訳): REL-SF4PASS: REL深度表現と球状融合によるパノラマセマンティックセマンティックセグメンテーション
- Authors: Xuewei Li, Xinghan Bao, Zhimin Chen, Xi Li,
- Abstract要約: REL-SF4PASSは、人気のあるベンチマークであるStanford2D3D Panoramicデータセットのパフォーマンスと堅牢性を大幅に改善する。
3つの折り目で平均mIoUが2.35%向上し、3D乱れに直面すると、性能のばらつきが約70%減少する。
- 参考スコア(独自算出の注目度): 9.487755927754952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As an important and challenging problem in computer vision, Panoramic Semantic Segmentation (PASS) aims to give complete scene perception based on an ultra-wide angle of view. Most PASS methods often focus on spherical geometry with RGB input or using the depth information in original or HHA format, which does not make full use of panoramic image geometry. To address these shortcomings, we propose REL-SF4PASS with our REL depth representation based on cylindrical coordinate and Spherical-dynamic Multi-Modal Fusion SMMF. REL is made up of Rectified Depth, Elevation-Gained Vertical Inclination Angle, and Lateral Orientation Angle, which fully represents 3D space in cylindrical coordinate style and the surface normal direction. SMMF aims to ensure the diversity of fusion for different panoramic image regions and reduce the breakage of cylinder side surface expansion in ERP projection, which uses different fusion strategies to match the different regions in panoramic images. Experimental results show that REL-SF4PASS considerably improves performance and robustness on popular benchmark, Stanford2D3D Panoramic datasets. It gains 2.35% average mIoU improvement on all 3 folds and reduces the performance variance by approximately 70% when facing 3D disturbance.
- Abstract(参考訳): パノラマ・セマンティック・セマンティック・セグメンテーション(PASS)は、コンピュータビジョンにおける重要かつ困難な問題として、超広視野の視点に基づいて、完全なシーン認識を提供することを目的としている。
ほとんどのPASS法は、RGB入力による球面形状や、パノラマ画像幾何をフル活用しないオリジナルまたはHHAフォーマットの深度情報に重点を置いている。
これらの欠点に対処するため,円筒座標と球面力学的多モード核融合SMMFに基づくREL深度表現を用いたREL-SF4PASSを提案する。
RELは、筒状座標と表面正規方向の3次元空間を完全に表現した、整形深さ、昇降垂直傾斜角、横方向傾斜角で構成されている。
SMMFは、異なるパノラマ画像領域の融合の多様性を確保し、ERPプロジェクションにおけるシリンダー側表面の膨張の破壊を低減することを目的としている。
REL-SF4PASSは、一般的なベンチマークであるStanford2D3Dパノラマデータセットの性能と堅牢性を大幅に向上することを示した。
3つの折り目で平均mIoUが2.35%向上し、3D乱れに直面すると、性能のばらつきが約70%減少する。
関連論文リスト
- PFDepth: Heterogeneous Pinhole-Fisheye Joint Depth Estimation via Distortion-aware Gaussian-Splatted Volumetric Fusion [61.6340987158734]
ヘテロジニアス多視点深度推定のための最初のピンホール・フィッシュアイ・フレームワークPFDepthを提案する。
PFDepthは、ピンホールと魚眼カメラの任意の組み合わせを、様々な内在と外生とで処理できる統一アーキテクチャを採用している。
我々は,現在の主流深度ネットワーク上でのKITTI-360およびRealHetデータセットに対して,PFDepthが最先端の性能を示すことを示す。
論文 参考訳(メタデータ) (2025-09-30T09:38:59Z) - MASH: Masked Anchored SpHerical Distances for 3D Shape Representation and Generation [55.88474970190769]
Masked Anchored SpHerical Distances (MASH)は、3次元形状のマルチビューでパラメタライズドな表現である。
MASHは、表面再構成、形状生成、完成、ブレンディングなど、複数の用途に汎用性がある。
論文 参考訳(メタデータ) (2025-04-12T09:28:12Z) - SphereFusion: Efficient Panorama Depth Estimation via Gated Fusion [21.97835451388508]
提案するSphereFusionは,様々なプロジェクション手法の強みを組み合わせたエンドツーエンドフレームワークである。
具体的には、SphereFusionは2次元画像畳み込みとメッシュ演算を使用して、同形および球面投影領域のパノラマ画像から2種類の特徴を抽出する。
SphereFusionは,512$times$1024パノラマ画像上で17msで高速な推論速度を示しながら,他の最先端手法と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2025-02-09T11:36:45Z) - MCPDepth: Omnidirectional Depth Estimation via Stereo Matching from Multi-Cylindrical Panoramas [49.891712558113845]
マルチシリンダパノラマ深さ推定(MCPDepth)を導入する。
MCPDepthは、全方位深度推定を強化するために設計された2段階のフレームワークである。
本手法は,屋外データセットのDeep360では平均絶対誤差(MAE)が18.8%,実データセットの3D60では19.9%向上する。
論文 参考訳(メタデータ) (2024-08-03T03:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。