論文の概要: Panoramic Depth Estimation via Supervised and Unsupervised Learning in
Indoor Scenes
- arxiv url: http://arxiv.org/abs/2108.08076v1
- Date: Wed, 18 Aug 2021 09:58:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:30:08.920419
- Title: Panoramic Depth Estimation via Supervised and Unsupervised Learning in
Indoor Scenes
- Title(参考訳): 屋内場面における教師なし学習によるパノラマ奥行き推定
- Authors: Keyang Zhou, Kailun Yang, Kaiwei Wang
- Abstract要約: パノラマ画像を導入して視野を大きくする。
パノラマ画像の特徴に適応したニューラルネットワークのトレーニングプロセスを改善する。
本研究は, 総合的な実験により, 屋内シーンの認識を目的とした提案手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 8.48364407942494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Depth estimation, as a necessary clue to convert 2D images into the 3D space,
has been applied in many machine vision areas. However, to achieve an entire
surrounding 360-degree geometric sensing, traditional stereo matching
algorithms for depth estimation are limited due to large noise, low accuracy,
and strict requirements for multi-camera calibration. In this work, for a
unified surrounding perception, we introduce panoramic images to obtain larger
field of view. We extend PADENet first appeared in our previous conference work
for outdoor scene understanding, to perform panoramic monocular depth
estimation with a focus for indoor scenes. At the same time, we improve the
training process of the neural network adapted to the characteristics of
panoramic images. In addition, we fuse traditional stereo matching algorithm
with deep learning methods and further improve the accuracy of depth
predictions. With a comprehensive variety of experiments, this research
demonstrates the effectiveness of our schemes aiming for indoor scene
perception.
- Abstract(参考訳): 2d画像を3d空間に変換するために必要な手がかりとして、深度推定が多くのマシンビジョン領域で適用されている。
しかし、周囲の360度の幾何学的センシングを実現するため、従来のステレオマッチングアルゴリズムは、大きなノイズ、低い精度、マルチカメラキャリブレーションの厳密な要求のために制限されている。
本研究では,パノラマ画像を導入し,より広い視野の視野を得る。
padenetを最初に拡張したのは,前回のアウトドアシーン理解のためのカンファレンスワークで,屋内シーンに焦点をあてたパノラマ単眼深度推定を行ったことです。
同時に,パノラマ画像の特徴に適応したニューラルネットワークの学習プロセスを改善する。
さらに,従来のステレオマッチングアルゴリズムをディープラーニング手法と融合させ,深度予測の精度をさらに向上させる。
本研究は, 総合的な実験により, 屋内シーン認識を目的とした提案手法の有効性を実証する。
関連論文リスト
- Robust and Flexible Omnidirectional Depth Estimation with Multiple 360° Cameras [8.850391039025077]
我々は、複数の360度カメラの幾何的制約と冗長情報を用いて、頑健で柔軟な全方位深度推定を実現する。
この2つのアルゴリズムは, 土壌パノラマ入力を施した場合でも, 精度よく深度マップを予測し, 最先端性能を実現する。
論文 参考訳(メタデータ) (2024-09-23T07:31:48Z) - MSI-NeRF: Linking Omni-Depth with View Synthesis through Multi-Sphere Image aided Generalizable Neural Radiance Field [1.3162012586770577]
深層学習全方位深度推定と新しいビュー合成を組み合わせたMSI-NeRFを提案する。
入力画像の特徴抽出とワープにより,コストボリュームとして多面体画像を構築する。
ネットワークには,4つの画像のみを用いて未知のシーンを効率的に再構築する一般化機能がある。
論文 参考訳(メタデータ) (2024-03-16T07:26:50Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Calibrating Panoramic Depth Estimation for Practical Localization and
Mapping [20.621442016969976]
周囲環境の絶対深度値は, 局所化, ナビゲーション, 3次元構造推定など, 様々な補助技術にとって重要な手がかりとなる。
本研究では,パノラマ画像から推定される精度の高い深度が,3次元情報を必要とする幅広い下流タスクに対して,強力で軽量な入力として機能することを提案する。
論文 参考訳(メタデータ) (2023-08-27T04:50:05Z) - Blur aware metric depth estimation with multi-focus plenoptic cameras [8.508198765617196]
多焦点レンズカメラからの原画像のみを用いた新しい距離深度推定アルゴリズムを提案する。
提案手法は、焦点距離の異なる複数のマイクロレンズを用いるマルチフォーカス構成に特に適している。
論文 参考訳(メタデータ) (2023-08-08T13:38:50Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - VolumeFusion: Deep Depth Fusion for 3D Scene Reconstruction [71.83308989022635]
本稿では、ディープニューラルネットワークを用いた従来の2段階フレームワークの複製により、解釈可能性と結果の精度が向上することを提唱する。
ネットワークは,1)深部MVS技術を用いた局所深度マップの局所計算,2)深部マップと画像の特徴を融合させて単一のTSDFボリュームを構築する。
異なる視点から取得した画像間のマッチング性能を改善するために,PosedConvと呼ばれる回転不変な3D畳み込みカーネルを導入する。
論文 参考訳(メタデータ) (2021-08-19T11:33:58Z) - DnD: Dense Depth Estimation in Crowded Dynamic Indoor Scenes [68.38952377590499]
複雑な屋内環境の中を移動する単眼カメラから奥行きを推定するための新しい手法を提案する。
提案手法は,静的な背景と複数の移動する人物からなるシーン全体にわたる絶対規模の深度マップを推定する。
論文 参考訳(メタデータ) (2021-08-12T09:12:39Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - DFVS: Deep Flow Guided Scene Agnostic Image Based Visual Servoing [11.000164408890635]
既存のディープラーニングベースのビジュアルサーボアプローチは、画像間の相対カメラのポーズを後退させる。
我々は、深層ニューラルネットワークを用いて予測される視覚的特徴として光学的流れを考察する。
2cm以下と1度以下の正確な位置を維持しながら3m以上40度以上の収束性を示した。
論文 参考訳(メタデータ) (2020-03-08T11:42:36Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。