論文の概要: Unsupervised Learning of Depth Estimation and Visual Odometry for Sparse
Light Field Cameras
- arxiv url: http://arxiv.org/abs/2103.11322v1
- Date: Sun, 21 Mar 2021 07:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:19:45.235788
- Title: Unsupervised Learning of Depth Estimation and Visual Odometry for Sparse
Light Field Cameras
- Title(参考訳): スパース光場カメラにおける奥行き推定と視覚オドメトリーの教師なし学習
- Authors: S. Tejaswi Digumarti (1 and 2), Joseph Daniel (1), Ahalya Ravendran (1
and 2), Donald G. Dansereau (1 and 2) ((1) School of Aerospace, Mechanical
and Mechatronic Engineering, The University of Sydney, (2) Sydney Institute
for Robotics and Intelligent Systems)
- Abstract要約: ロボットが新しい種類のカメラを自律的に解釈できるように、教師なし学習の技術を一般化します。
本研究では,平面を通過する光線の集合を記述する4d lf関数のサブセットを捉えたsparse light field (lf)カメラについて検討する。
本稿では,計測と深度を教師なしで学習できるスパースLFの一般化符号化法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While an exciting diversity of new imaging devices is emerging that could
dramatically improve robotic perception, the challenges of calibrating and
interpreting these cameras have limited their uptake in the robotics community.
In this work we generalise techniques from unsupervised learning to allow a
robot to autonomously interpret new kinds of cameras. We consider emerging
sparse light field (LF) cameras, which capture a subset of the 4D LF function
describing the set of light rays passing through a plane. We introduce a
generalised encoding of sparse LFs that allows unsupervised learning of
odometry and depth. We demonstrate the proposed approach outperforming
monocular and conventional techniques for dealing with 4D imagery, yielding
more accurate odometry and depth maps and delivering these with metric scale.
We anticipate our technique to generalise to a broad class of LF and sparse LF
cameras, and to enable unsupervised recalibration for coping with shifts in
camera behaviour over the lifetime of a robot. This work represents a first
step toward streamlining the integration of new kinds of imaging devices in
robotics applications.
- Abstract(参考訳): ロボットの知覚を劇的に改善する新しい画像装置のエキサイティングな多様性が浮かび上がっているが、これらのカメラの校正と解釈の難しさは、ロボットコミュニティにおける彼らの獲得を制限している。
本研究では,ロボットが新しいカメラを自律的に解釈できるように,教師なし学習からの手法を一般化する。
本研究では,平面を通過する光線の集合を記述する4d lf関数のサブセットを捉えたsparse light field (lf)カメラについて検討する。
本稿では,計測と深度を教師なしで学習できるスパースLFの一般化符号化を導入する。
提案手法は, 単眼画像と従来の4次元画像の処理方法より優れており, より高精度なオドメトリーと深度マップが得られた。
我々は,LFカメラと疎LFカメラの幅広いクラスに一般化し,ロボットの生涯におけるカメラの挙動の変化に対処するための教師なしのリカバリを可能にすることを期待する。
この研究は、ロボットアプリケーションにおける新しい種類のイメージングデバイスの統合を合理化する第一歩である。
関連論文リスト
- Homography Estimation in Complex Topological Scenes [6.023710971800605]
監視ビデオや画像は、交通分析から犯罪検出まで、幅広い用途に使用されている。
外部カメラキャリブレーションデータは、ほとんどの分析アプリケーションにとって重要である。
本稿では,任意のカメラ設定に関する事前知識を必要としない辞書ベースのアプローチを活用した自動カメラ校正プロセスを提案する。
論文 参考訳(メタデータ) (2023-08-02T11:31:43Z) - A Flexible Framework for Virtual Omnidirectional Vision to Improve
Operator Situation Awareness [2.817412580574242]
本稿では,ロボットのどこに設置した複数のカメラを融合させる新しい手法に基づいて,仮想プロジェクションのためのフレキシブルなフレームワークを提案する。
カメラ画像と幾何学的3Dライダーデータを融合させることでシーン理解を改善するための補完的なアプローチを提案し,色付き点雲を得る。
論文 参考訳(メタデータ) (2023-02-01T10:40:05Z) - SPARF: Neural Radiance Fields from Sparse and Noisy Poses [58.528358231885846]
SPARF(Sparse Pose Adjusting Radiance Field)を導入し,新規な視点合成の課題に対処する。
提案手法は、NeRFを共同学習し、カメラのポーズを洗練するために、多視点幾何学的制約を利用する。
論文 参考訳(メタデータ) (2022-11-21T18:57:47Z) - NOCaL: Calibration-Free Semi-Supervised Learning of Odometry and Camera
Intrinsics [2.298932494750101]
我々はNOCaL, ニューラル・オドメトリー, および光場を用いて, キャリブレーションなしで未確認カメラを解釈できる半教師付き学習アーキテクチャを提案する。
従来のカメラを用いて,NOCaL合成を実演し,キャリブレーションのないオドメトリーと新しいビュージオメトリを実証した。
論文 参考訳(メタデータ) (2022-10-14T00:34:43Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Full Surround Monodepth from Multiple Cameras [31.145598985137468]
自己監督単眼深度と自我運動推定を大型フォトベースラインマルチカメラリグに拡張します。
私たちは、典型的なLiDARスキャナーと同じ全周360度の視野をカバーする、高密度で一貫性のあるスケールアウェアポイントクラウドを生成する単一のネットワークを学びます。
論文 参考訳(メタデータ) (2021-03-31T22:52:04Z) - Goal-Auxiliary Actor-Critic for 6D Robotic Grasping with Point Clouds [62.013872787987054]
6次元グルーピングのためのクローズドループ制御ポリシーを学習するための新しい手法を提案する。
本ポリシーでは,エゴセントリックカメラからの物体のセグメント化点雲を入力とし,ロボットグリップの連続した6次元制御動作を出力し,物体をつかむ。
論文 参考訳(メタデータ) (2020-10-02T07:42:00Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。