論文の概要: ODE-CNN: Omnidirectional Depth Extension Networks
- arxiv url: http://arxiv.org/abs/2007.01475v1
- Date: Fri, 3 Jul 2020 03:14:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 05:27:45.855721
- Title: ODE-CNN: Omnidirectional Depth Extension Networks
- Title(参考訳): ODE-CNN:全方向深さ拡張ネットワーク
- Authors: Xinjing Cheng, Peng Wang, Yanqi Zhou, Chenye Guan and Ruigang Yang
- Abstract要約: 本研究では,全方位カメラとキャリブレーションされた投影深度カメラを組み合わせた低コスト3Dセンシングシステムを提案する。
欠損した深度を正確に回復するために,一方向の深度拡張畳み込みニューラルネットワークを設計する。
ODE-CNNは、他の最先端(SoTA)手法よりもかなり優れている(相対的に33%の深度誤差の低減)。
- 参考スコア(独自算出の注目度): 43.40308168978984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Omnidirectional 360{\deg} camera proliferates rapidly for autonomous robots
since it significantly enhances the perception ability by widening the field of
view(FoV). However, corresponding 360{\deg} depth sensors, which are also
critical for the perception system, are still difficult or expensive to have.
In this paper, we propose a low-cost 3D sensing system that combines an
omnidirectional camera with a calibrated projective depth camera, where the
depth from the limited FoV can be automatically extended to the rest of the
recorded omnidirectional image. To accurately recover the missing depths, we
design an omnidirectional depth extension convolutional neural
network(ODE-CNN), in which a spherical feature transform layer(SFTL) is
embedded at the end of feature encoding layers, and a deformable convolutional
spatial propagation network(D-CSPN) is appended at the end of feature decoding
layers. The former resamples the neighborhood of each pixel in the
omnidirectional coordination to the projective coordination, which reduces the
difficulty of feature learning, and the later automatically finds a proper
context to well align the structures in the estimated depths via CNN w.r.t. the
reference image, which significantly improves the visual quality. Finally, we
demonstrate the effectiveness of proposed ODE-CNN over the popular 360D dataset
and show that ODE-CNN significantly outperforms (relatively 33% reduction
in-depth error) other state-of-the-art (SoTA) methods.
- Abstract(参考訳): 対向360度カメラは、視野を広げることによって認識能力を大幅に向上させるため、自律ロボットにとって急速に増殖する。
しかし、それに対応する360{\deg}深度センサーは認識システムにとって重要なものであり、それでもなお困難か高価である。
本稿では,全方位カメラとキャリブレーションされた投影深度カメラを組み合わせた低コストな3Dセンシングシステムを提案する。
不足した深さを正確に復元するために、特徴符号化層末に球状特徴変換層(sftl)を埋め込み、特徴復号層末に変形可能な畳み込み空間伝搬ネットワーク(d-cspn)を付加した全方位深さ拡張畳み込みニューラルネットワーク(ode-cnn)を設計する。
前者は、全方向コーディネーションで各画素の近傍を全方向コーディネーションでサンプリングし、特徴学習の難しさを低減し、後者は、基準画像であるcnn w.r.tを介して推定深度の構造を適切に整列する適切なコンテキストを自動的に見つけ、視覚的品質を大幅に向上させる。
最後に,提案したODE-CNNが360Dデータセットに対して有効であることを示すとともに,ODE-CNNが他の最先端(SoTA)手法よりも有意に優れていることを示す。
関連論文リスト
- Pixel-Aligned Multi-View Generation with Depth Guided Decoder [86.1813201212539]
画素レベルの画像・マルチビュー生成のための新しい手法を提案する。
従来の作業とは異なり、潜伏映像拡散モデルのVAEデコーダにマルチビュー画像にアテンション層を組み込む。
本モデルにより,マルチビュー画像間の画素アライメントが向上する。
論文 参考訳(メタデータ) (2024-08-26T04:56:41Z) - SCIPaD: Incorporating Spatial Clues into Unsupervised Pose-Depth Joint Learning [17.99904937160487]
本研究では,教師なし深層学習のための空間的手がかりを取り入れた新しいアプローチであるSCIPaDを紹介する。
SCIPaDは平均翻訳誤差22.2%、カメラポーズ推定タスクの平均角誤差34.8%をKITTI Odometryデータセットで達成している。
論文 参考訳(メタデータ) (2024-07-07T06:52:51Z) - Neural Contourlet Network for Monocular 360 Depth Estimation [37.82642960470551]
我々は360度画像の解釈可能かつスパースな表現を構築する新しい視点を提供する。
本稿では,畳み込み型ニューラルネットワークと畳み込み型トランスフォーメーションブランチからなる,畳み込み型ニューラルネットワークを提案する。
エンコーダの段階では、2種類のキューを効果的に融合させる空間スペクトル融合モジュールを設計する。
論文 参考訳(メタデータ) (2022-08-03T02:25:55Z) - HiMODE: A Hybrid Monocular Omnidirectional Depth Estimation Model [3.5290359800552946]
HiMODE は CNN+ Transformer アーキテクチャに基づく新しい単分子全方位深度推定モデルである。
360deg単分子深度推定において,HiMODEは最先端の性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-04-11T11:11:43Z) - Unsupervised Depth Completion with Calibrated Backprojection Layers [79.35651668390496]
画像とスパース点雲から深度を推定するディープニューラルネットワークアーキテクチャを提案する。
LIDARや他のレンジセンサーから得られるビデオストリームとそれに対応するスパース点雲と、カメラの固有のキャリブレーションパラメータを用いてトレーニングする。
推論時に、トレーニングに用いるものと異なるカメラの校正を、スパース点雲と1つの画像とともにネットワークへの入力として行う。
論文 参考訳(メタデータ) (2021-08-24T05:41:59Z) - PLADE-Net: Towards Pixel-Level Accuracy for Self-Supervised Single-View
Depth Estimation with Neural Positional Encoding and Distilled Matting Loss [49.66736599668501]
PLADE-Netと呼ばれる自己監視型単視点画素レベルの高精度深度推定ネットワークを提案する。
提案手法は,KITTIデータセットの$delta1$測定値の95%を超え,前例のない精度を示す。
論文 参考訳(メタデータ) (2021-03-12T15:54:46Z) - PCLs: Geometry-aware Neural Reconstruction of 3D Pose with Perspective
Crop Layers [111.55817466296402]
我々は、カメラ幾何学に基づく関心領域の視点作物であるパースペクティブ・クロップ・レイヤ(PCL)を紹介する。
PCLは、エンドツーエンドのトレーニングと基礎となるニューラルネットワークのパラメータ数を残しながら、位置依存的な視点効果を決定論的に除去する。
PCLは、既存の3D再構成ネットワークを幾何学的に認識することで、容易に精度を向上させる手段を提供する。
論文 参考訳(メタデータ) (2020-11-27T08:48:43Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。