論文の概要: Dual-Projection Fusion for Accurate Upright Panorama Generation in Robotic Vision
- arxiv url: http://arxiv.org/abs/2512.00911v1
- Date: Sun, 30 Nov 2025 14:28:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.492988
- Title: Dual-Projection Fusion for Accurate Upright Panorama Generation in Robotic Vision
- Title(参考訳): ロボットビジョンにおける正確な直立パノラマ生成のためのデュアルプロジェクション融合
- Authors: Yuhao Shan, Qianyi Yuan, Jingguo Liu, Shigang Li, Jianfeng Li, Tong Chen,
- Abstract要約: 本研究では,カメラ傾斜角を同時推定し,直立パノラマ画像の再構成を行うデュアルストリーム角認識ネットワークを提案する。
SUN360およびM3Dデータセットを用いた実験により,本手法は傾斜推定と直立パノラマ生成の両方において既存手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 9.05196155518077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Panoramic cameras, capable of capturing a 360-degree field of view, are crucial in robotic vision, particularly in environments with sparse features. However, non-upright panoramas due to unstable robot postures hinder downstream tasks. Traditional IMU-based correction methods suffer from drift and external disturbances, while vision-based approaches offer a promising alternative. This study presents a dual-stream angle-aware generation network that jointly estimates camera inclination angles and reconstructs upright panoramic images. The network comprises a CNN branch that extracts local geometric structures from equirectangular projections and a ViT branch that captures global contextual cues from cubemap projections. These are integrated through a dual-projection adaptive fusion module that aligns spatial features across both domains. To further enhance performance, we introduce a high-frequency enhancement block, circular padding, and channel attention mechanisms to preserve 360° continuity and improve geometric sensitivity. Experiments on the SUN360 and M3D datasets demonstrate that our method outperforms existing approaches in both inclination estimation and upright panorama generation. Ablation studies further validate the contribution of each module and highlight the synergy between the two tasks. The code and related datasets can be found at: https://github.com/YuhaoShine/DualProjectionFusion.
- Abstract(参考訳): パノラマカメラ(パノラマカメラ)は360度視野を撮影できるが、ロボットビジョン、特に細い特徴を持つ環境では不可欠である。
しかし、不安定なロボット姿勢によるアップライトでないパノラマは下流の作業を妨げる。
従来のIMUベースの補正手法はドリフトや外乱に悩まされ、視覚ベースのアプローチは有望な代替手段を提供する。
本研究では,カメラ傾斜角を同時推定し,直立パノラマ画像の再構成を行うデュアルストリーム角認識ネットワークを提案する。
このネットワークは、正方形プロジェクションから局所幾何学構造を抽出するCNNブランチと、立方体プロジェクションから大域文脈キューをキャプチャするViTブランチとから構成される。
これらは、両方の領域にまたがる空間的特徴を整列する二重射影適応核融合モジュールを通して統合される。
性能向上のために,360度連続性を維持し,幾何感度を向上させるために,高周波拡張ブロック,円形パディング,チャネルアテンション機構を導入する。
SUN360およびM3Dデータセットを用いた実験により,本手法は傾斜推定と直立パノラマ生成の両方において既存手法より優れていることが示された。
アブレーション研究は、各モジュールの寄与をさらに検証し、2つのタスク間の相乗効果を強調する。
コードと関連するデータセットは、https://github.com/YuhaoShine/DualProjectionFusion.comにある。
関連論文リスト
- DiT360: High-Fidelity Panoramic Image Generation via Hybrid Training [76.82789568988557]
DiT360は、パノラマ画像生成のための視点とパノラマデータを用いたハイブリッドトレーニングを行う、DiTベースのフレームワークである。
提案手法は,11の定量的指標間で境界の整合性と画像の忠実度を向上する。
論文 参考訳(メタデータ) (2025-10-13T17:59:15Z) - PanoWorld-X: Generating Explorable Panoramic Worlds via Sphere-Aware Video Diffusion [87.13016347332943]
PanoWorld-Xは、多彩なカメラ軌道を持つ高忠実で制御可能なパノラマビデオ生成のための新しいフレームワークである。
動作範囲,制御精度,視覚的品質など,様々な面で優れた性能を示す実験を行った。
論文 参考訳(メタデータ) (2025-09-29T16:22:00Z) - RangeSAM: Leveraging Visual Foundation Models for Range-View repesented LiDAR segmentation [6.513648249086729]
本稿では,SAM2を3次元セグメンテーションに適応させる最初のレンジビューフレームワークを提案する。
提案手法は,2D中心パイプラインの速度,スケーラビリティ,デプロイメントの単純さを生かしながら,セマンティックKITTI上での競合性能を実現する。
論文 参考訳(メタデータ) (2025-09-19T11:33:10Z) - SphereFusion: Efficient Panorama Depth Estimation via Gated Fusion [21.97835451388508]
提案するSphereFusionは,様々なプロジェクション手法の強みを組み合わせたエンドツーエンドフレームワークである。
具体的には、SphereFusionは2次元画像畳み込みとメッシュ演算を使用して、同形および球面投影領域のパノラマ画像から2種類の特徴を抽出する。
SphereFusionは,512$times$1024パノラマ画像上で17msで高速な推論速度を示しながら,他の最先端手法と競合する結果が得られることを示す。
論文 参考訳(メタデータ) (2025-02-09T11:36:45Z) - MCPDepth: Omnidirectional Depth Estimation via Stereo Matching from Multi-Cylindrical Panoramas [49.891712558113845]
マルチシリンダパノラマ深さ推定(MCPDepth)を導入する。
MCPDepthは、全方位深度推定を強化するために設計された2段階のフレームワークである。
本手法は,屋外データセットのDeep360では平均絶対誤差(MAE)が18.8%,実データセットの3D60では19.9%向上する。
論文 参考訳(メタデータ) (2024-08-03T03:35:37Z) - Multi-Projection Fusion and Refinement Network for Salient Object
Detection in 360{\deg} Omnidirectional Image [141.10227079090419]
我々は,360度全方位画像中の有向物体を検出するために,MPFR-Net(Multi-Projection Fusion and Refinement Network)を提案する。
MPFR-Netは、等角射影像と対応する4つの立方体展開像を入力として使用する。
2つの全方位データセットの実験結果から,提案手法は定性的かつ定量的に,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-23T14:50:40Z) - UniFuse: Unidirectional Fusion for 360$^{\circ}$ Panorama Depth
Estimation [11.680475784102308]
本稿では,2つのプロジェクションから特徴を融合する新しいフレームワークを提案する。
提案した融合戦略とモジュールの有効性を実験により検証し、4つの一般的なデータセット上で最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-02-06T10:01:09Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。