論文の概要: Reinforcement Learning Based Optimal Camera Placement for Depth
Observation of Indoor Scenes
- arxiv url: http://arxiv.org/abs/2110.11106v1
- Date: Thu, 21 Oct 2021 12:47:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-23 02:48:21.048935
- Title: Reinforcement Learning Based Optimal Camera Placement for Depth
Observation of Indoor Scenes
- Title(参考訳): 強化学習に基づく屋内シーンの深度観察のための最適カメラ配置
- Authors: Yichuan Chen and Manabu Tsukada and Hiroshi Esaki
- Abstract要約: 本稿では,強化学習に基づく屋内シーンの深度観察のためのオンラインソリューションを提案する。
実験結果から,提案システムでは,10シーン中7シーンにおいて,より低い深度観察誤差が得られることがわかった。
- 参考スコア(独自算出の注目度): 0.9023847175654603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exploring the most task-friendly camera setting -- optimal camera placement
(OCP) problem -- in tasks that use multiple cameras is of great importance.
However, few existing OCP solutions specialize in depth observation of indoor
scenes, and most versatile solutions work offline. To this problem, an OCP
online solution to depth observation of indoor scenes based on reinforcement
learning is proposed in this paper. The proposed solution comprises a
simulation environment that implements scene observation and reward estimation
using shadow maps and an agent network containing a soft actor-critic
(SAC)-based reinforcement learning backbone and a feature extractor to extract
features from the observed point cloud layer-by-layer. Comparative experiments
with two state-of-the-art optimization-based offline methods are conducted. The
experimental results indicate that the proposed system outperforms seven out of
ten test scenes in obtaining lower depth observation error. The total error in
all test scenes is also less than 90% of the baseline ones. Therefore, the
proposed system is more competent for depth camera placement in scenarios where
there is no prior knowledge of the scenes or where a lower depth observation
error is the main objective.
- Abstract(参考訳): 複数のカメラを使用するタスクにおいて、最もタスクに優しいカメラ設定 -- 最適なカメラ配置(OCP)問題 -- を探索することが非常に重要である。
しかし、屋内シーンの深度観察を専門とする既存のOCPソリューションはほとんどなく、ほとんどの汎用ソリューションはオフラインで動作する。
そこで本論文では,強化学習に基づく屋内シーンの深度観察のためのOCPオンラインソリューションを提案する。
提案手法は、シャドーマップを用いたシーン観察と報酬推定を実現するシミュレーション環境と、ソフトアクター・クリティック(SAC)ベースの強化学習バックボーンを含むエージェントネットワークと、観測点雲層から特徴を引き出す特徴抽出器とを備える。
2つの最先端最適化に基づくオフライン手法の比較実験を行った。
実験結果から,提案システムでは,10シーン中7シーンにおいて,より低い深度観察誤差が得られることがわかった。
全てのテストシーンの合計エラーは、ベースラインのエラーの90%未満である。
そこで,本システムは,シーンの事前知識がないシナリオや,低深度観測誤差が主目的であるシナリオにおいて,深度カメラの配置に適している。
関連論文リスト
- $\mathrm{F^2Depth}$: Self-supervised Indoor Monocular Depth Estimation via Optical Flow Consistency and Feature Map Synthesis [17.18692080133249]
自己教師型屋内単分子深度推定フレームワークである$mathrmF2Depth$を提案する。
深度学習を監督するために、自己教師付き光フロー推定ネットワークを導入する。
その結果,本モデルは未知の屋内シーンで撮影された単眼画像とよく一致していることがわかった。
論文 参考訳(メタデータ) (2024-03-27T11:00:33Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Multi-Camera Collaborative Depth Prediction via Consistent Structure
Estimation [75.99435808648784]
本稿では,新しいマルチカメラ協調深度予測法を提案する。
カメラ間の構造的整合性を維持しながら、大きな重なり合う領域を必要としない。
DDADおよびNuScenesデータセットの実験結果から,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-05T03:44:34Z) - MonoIndoor++:Towards Better Practice of Self-Supervised Monocular Depth
Estimation for Indoor Environments [45.89629401768049]
自己監督型単分子深度推定は近年,特に屋外環境において顕著な進歩を遂げている。
しかし、既存のデータの大半を携帯端末で捉えている屋内シーンでは、深度予測結果は満足できない。
室内環境における自己教師型単眼深度推定の性能向上を目的とした,新しいフレームワーク-IndoorMono++を提案する。
論文 参考訳(メタデータ) (2022-07-18T21:34:43Z) - Unsupervised Simultaneous Learning for Camera Re-Localization and Depth
Estimation from Video [4.5307040147072275]
本稿では,モノクロカメラの再位置推定と,ラベルなし映像列からの深度推定を行うための教師なし同時学習フレームワークを提案する。
本フレームワークでは,シーン座標を方向から推定する2つのネットワークと,カメラのポーズを推定するために合成された各画像からの深度マップを訓練する。
また,本手法は,訓練された環境下での最先端の単分子深度推定よりも優れていた。
論文 参考訳(メタデータ) (2022-03-24T02:11:03Z) - Learning Occlusion-Aware Coarse-to-Fine Depth Map for Self-supervised
Monocular Depth Estimation [11.929584800629673]
自己教師付き単眼深度推定のためのOcclusion-aware Coarse-to-Fine Depth Mapを学習するための新しいネットワークを提案する。
提案したOCFD-Netは,粗度深度マップの学習に離散深度制約を用いるだけでなく,シーン深度残差の学習にも連続深度制約を用いる。
論文 参考訳(メタデータ) (2022-03-21T12:43:42Z) - MonoIndoor: Towards Good Practice of Self-Supervised Monocular Depth
Estimation for Indoor Environments [55.05401912853467]
屋内環境の自己監督深度推定は屋外環境よりも困難である。
屋内シーケンスの深さ範囲は異なるフレーム間で大きく異なり、奥行きネットワークが一貫した深さキューを誘導することは困難である。
屋外シーンの最大距離は、カメラが通常空を見るのと同じである。
屋外シーケンスの動作は、特にKITTIのようなデータセットを駆動するために、前もって翻訳される。
論文 参考訳(メタデータ) (2021-07-26T18:45:14Z) - Self-Supervised Monocular Depth Estimation of Untextured Indoor Rotated
Scenes [6.316693022958222]
自己教師付き深層学習法はステレオ画像を利用して単眼深度推定の訓練を行っている。
これらの手法は, 室内環境における監視手法の性能とカメラ回転とを一致しない。
テクスチャレス領域における画像再構成誤りの曖昧さを補正する新しい不均一損失項を提案する。
論文 参考訳(メタデータ) (2021-06-24T12:27:16Z) - Robust Consistent Video Depth Estimation [65.53308117778361]
本稿では,単眼映像からカメラのカメラポーズと密集した深度マップを推定するアルゴリズムを提案する。
本手法は,(1)低周波大規模アライメントのためのフレキシブルな変形-スプラインと(2)細部奥行き詳細の高周波アライメントのための幾何認識深度フィルタリングとを組み合わせた手法である。
従来の手法とは対照的に, カメラのポーズを入力として必要とせず, かなりの音量, 揺動, 動きのぼやき, 転がりシャッター変形を含む携帯のハンドヘルドキャプチャに頑健な再構成を実現する。
論文 参考訳(メタデータ) (2020-12-10T18:59:48Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。