論文の概要: Active Perception with A Monocular Camera for Multiscopic Vision
- arxiv url: http://arxiv.org/abs/2001.08212v1
- Date: Wed, 22 Jan 2020 08:46:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 18:49:48.792431
- Title: Active Perception with A Monocular Camera for Multiscopic Vision
- Title(参考訳): 多眼視用単眼カメラによるアクティブ・パーセプション
- Authors: Weihao Yuan, Rui Fan, Michael Yu Wang, and Qifeng Chen
- Abstract要約: 低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
- 参考スコア(独自算出の注目度): 50.370074098619185
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We design a multiscopic vision system that utilizes a low-cost monocular RGB
camera to acquire accurate depth estimation for robotic applications. Unlike
multi-view stereo with images captured at unconstrained camera poses, the
proposed system actively controls a robot arm with a mounted camera to capture
a sequence of images in horizontally or vertically aligned positions with the
same parallax. In this system, we combine the cost volumes for stereo matching
between the reference image and the surrounding images to form a fused cost
volume that is robust to outliers. Experiments on the Middlebury dataset and
real robot experiments show that our obtained disparity maps are more accurate
than two-frame stereo matching: the average absolute error is reduced by 50.2%
in our experiments.
- Abstract(参考訳): 低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
本システムでは,参照画像と周辺画像とのステレオマッチングのためのコストボリュームを結合して,アウトレーヤに対して堅牢な融解コストボリュームを形成する。
ミドルベリーデータセットと実ロボット実験の実験では、得られた不一致マップは2フレームステレオマッチングよりも正確であることが示され、平均的な絶対誤差は実験で50.2%削減された。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - SDGE: Stereo Guided Depth Estimation for 360$^\circ$ Camera Sets [65.64958606221069]
マルチカメラシステムは、360ドル周の知覚を達成するために、しばしば自律走行に使用される。
360ドル(約3万3000円)のカメラセットは、しばしば制限または低品質のオーバーラップ領域を持ち、画像全体に対してマルチビューステレオメソッドを実現する。
重なりの重なりに多視点ステレオ結果を明示的に利用することにより、全画像の深さ推定を強化するステレオガイド深度推定法(SGDE)を提案する。
論文 参考訳(メタデータ) (2024-02-19T02:41:37Z) - Depth Estimation Analysis of Orthogonally Divergent Fisheye Cameras with
Distortion Removal [0.0]
伝統的なステレオビジョンシステムは、視野が限られているため、特定のシナリオには適さないかもしれない。
魚眼カメラは、ステレオマッチングと深さ推定の精度に影響を与えるエッジの歪みを生じさせる。
本稿では,ステレオビジョンシステムにおける歪み除去・深さ推定法を提案する。
論文 参考訳(メタデータ) (2023-07-07T13:44:12Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Depth Estimation by Combining Binocular Stereo and Monocular
Structured-Light [29.226203202113613]
本稿では、2台のカメラ(RGBカメラとIRカメラ)とIRスペックルプロジェクタからなる新しいステレオシステムを提案する。
RGBカメラは深さ推定とテクスチャ取得の両方に使用される。
MSLサブシステムによって生成された深度マップはステレオマッチングネットワークの外部ガイダンスを提供することができる。
論文 参考訳(メタデータ) (2022-03-20T08:46:37Z) - MFuseNet: Robust Depth Estimation with Learned Multiscopic Fusion [47.2251122861135]
低コストの単眼RGBカメラを用いて正確な深度推定を行うマルチスコープ・ビジョン・システムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラの動きを制御して画像列をキャプチャする。
論文 参考訳(メタデータ) (2021-08-05T08:31:01Z) - A Multi-spectral Dataset for Evaluating Motion Estimation Systems [7.953825491774407]
本稿では,マルチスペクトル運動推定システムの性能評価のための新しいデータセットを提案する。
すべてのシーケンスはハンドヘルドマルチスペクトルデバイスから記録される。
深度画像はMicrosoft Kinect2でキャプチャされ、モダリティ間のステレオマッチングを学習するメリットがある。
論文 参考訳(メタデータ) (2020-07-01T17:11:02Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。