論文の概要: SphereUFormer: A U-Shaped Transformer for Spherical 360 Perception
- arxiv url: http://arxiv.org/abs/2412.06968v1
- Date: Mon, 09 Dec 2024 20:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:26.045811
- Title: SphereUFormer: A U-Shaped Transformer for Spherical 360 Perception
- Title(参考訳): SphereUFormer:球面認識のためのU字型変換器
- Authors: Yaniv Benny, Lior Wolf,
- Abstract要約: 本研究では,新たなSpherical Local Self-Attention'と他の球面指向モジュールを組み込むことで,球面領域での動作を成功させ,360$Dの認識ベンチマークにおいて,深度推定とセマンティックセグメンテーションの精度を向上するトランスフォーマアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 61.7243424157871
- License:
- Abstract: This paper proposes a novel method for omnidirectional 360$\degree$ perception. Most common previous methods relied on equirectangular projection. This representation is easily applicable to 2D operation layers but introduces distortions into the image. Other methods attempted to remove the distortions by maintaining a sphere representation but relied on complicated convolution kernels that failed to show competitive results. In this work, we introduce a transformer-based architecture that, by incorporating a novel ``Spherical Local Self-Attention'' and other spherically-oriented modules, successfully operates in the spherical domain and outperforms the state-of-the-art in 360$\degree$ perception benchmarks for depth estimation and semantic segmentation.
- Abstract(参考訳): 本稿では,全方位360$\degree$知覚のための新しい手法を提案する。
それまでの一般的な方法は、等角射影に頼っていた。
この表現は2次元の操作層に容易に適用できるが、画像に歪みをもたらす。
他の方法は球面表現を維持することで歪みを除去しようとしたが、複雑な畳み込みカーネルを頼りにしており、競合する結果を示さなかった。
本研究では,新しい<Spherical Local Self-Attention''や他の球面指向モジュールを組み込むことで,球面領域での動作を成功させ,深度推定とセマンティックセグメンテーションのための360$\degree$知覚ベンチマークにおいて最先端の処理性能を向上するトランスフォーマーアーキテクチャを提案する。
関連論文リスト
- Estimating Depth of Monocular Panoramic Image with Teacher-Student Model Fusing Equirectangular and Spherical Representations [3.8240176158734194]
本研究では, 単眼パノラマ画像の深度を, 正方形および球形表現を融合した教師学生モデルを用いて推定する手法を提案する。
実験では、よく知られた360度単分子深度推定ベンチマークを用いて、提案手法を検証した。
論文 参考訳(メタデータ) (2024-05-27T06:11:16Z) - SGFormer: Spherical Geometry Transformer for 360 Depth Estimation [54.13459226728249]
パノラマ歪みは360度深度推定において大きな課題となる。
本稿では,SGFormer という球面形状変換器を提案し,上記の問題に対処する。
また、様々な解像度で空間構造を補うために、クエリベースの大域的条件位置埋め込みを提案する。
論文 参考訳(メタデータ) (2024-04-23T12:36:24Z) - Neural Contourlet Network for Monocular 360 Depth Estimation [37.82642960470551]
我々は360度画像の解釈可能かつスパースな表現を構築する新しい視点を提供する。
本稿では,畳み込み型ニューラルネットワークと畳み込み型トランスフォーメーションブランチからなる,畳み込み型ニューラルネットワークを提案する。
エンコーダの段階では、2種類のキューを効果的に融合させる空間スペクトル融合モジュールを設計する。
論文 参考訳(メタデータ) (2022-08-03T02:25:55Z) - Neural Convolutional Surfaces [59.172308741945336]
この研究は、大域的、粗い構造から、微細で局所的で、おそらく繰り返される幾何学を歪める形状の表現に関係している。
このアプローチは, 最先端技術よりも優れたニューラル形状圧縮を実現するとともに, 形状詳細の操作と伝達を可能にする。
論文 参考訳(メタデータ) (2022-04-05T15:40:11Z) - ConDor: Self-Supervised Canonicalization of 3D Pose for Partial Shapes [55.689763519293464]
ConDorは、完全および部分的な3次元点雲の3次元配向と位置を正準化することを学ぶ自己教師型手法である。
推測中,本手法は任意のポーズで完全あるいは部分的な3次元点の雲を抽出し,同変正則のポーズを出力する。
論文 参考訳(メタデータ) (2022-01-19T18:57:21Z) - Pseudocylindrical Convolutions for Learned Omnidirectional Image
Compression [42.15877732557837]
我々は、全方位画像圧縮のためのディープニューラルネットワークを初めて学習する試みの1つである。
パラメトリック表現に関する合理的な制約の下では、擬円筒的畳み込みは標準畳み込みによって効率的に実装できる。
実験結果から,提案手法は競合手法よりも高い速度歪み性能が得られることがわかった。
論文 参考訳(メタデータ) (2021-12-25T12:18:32Z) - Concentric Spherical GNN for 3D Representation Learning [53.45704095146161]
同心球面特徴写像を学習するための新しい多解畳み込みアーキテクチャを提案する。
当社の階層的アーキテクチャは、球内情報と球間情報の両方を組み込むための代替学習に基づいています。
回転データを用いた3次元分類作業における最先端性能向上へのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-03-18T19:05:04Z) - Spherical Transformer: Adapting Spherical Signal to CNNs [53.18482213611481]
Spherical Transformerは、球状信号を標準CNNで直接処理できるベクトルに変換できます。
我々は,球面MNIST認識,3次元オブジェクト分類,全方向画像セマンティックセグメンテーションの課題に対するアプローチを評価する。
論文 参考訳(メタデータ) (2021-01-11T12:33:16Z) - Rotation-Invariant Autoencoders for Signals on Spheres [10.406659081400354]
球面画像に対する回転不変表現の教師なし学習の問題について検討する。
特に、$S2$と$SO(3)$の畳み込み層からなるオートエンコーダアーキテクチャを設計する。
複数のデータセットの実験は、クラスタリング、検索、分類アプリケーションにおける学習された表現の有用性を示す。
論文 参考訳(メタデータ) (2020-12-08T15:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。