論文の概要: Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2109.14974v1
- Date: Thu, 30 Sep 2021 10:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:37:23.823200
- Title: Unified Data Collection for Visual-Inertial Calibration via Deep
Reinforcement Learning
- Title(参考訳): 深層強化学習による視覚慣性校正のための統一データ収集
- Authors: Yunke Ao, Le Chen, Florian Tschopp, Michel Breyer, Andrei Cramariuc,
Roland Siegwart
- Abstract要約: 本研究では,ロボットアーム上で自動データ収集を行う動作ポリシーを学習するための新しい定式化を提案する。
本手法はモデルフリー深部強化学習を用いてキャリブレーション過程をコンパクトにモデル化する。
シミュレーションでは、手作りのポリシーよりも10倍速くキャリブレーションを実行できます。
- 参考スコア(独自算出の注目度): 24.999540933593273
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual-inertial sensors have a wide range of applications in robotics.
However, good performance often requires different sophisticated motion
routines to accurately calibrate camera intrinsics and inter-sensor extrinsics.
This work presents a novel formulation to learn a motion policy to be executed
on a robot arm for automatic data collection for calibrating intrinsics and
extrinsics jointly. Our approach models the calibration process compactly using
model-free deep reinforcement learning to derive a policy that guides the
motions of a robotic arm holding the sensor to efficiently collect measurements
that can be used for both camera intrinsic calibration and camera-IMU extrinsic
calibration. Given the current pose and collected measurements, the learned
policy generates the subsequent transformation that optimizes sensor
calibration accuracy. The evaluations in simulation and on a real robotic
system show that our learned policy generates favorable motion trajectories and
collects enough measurements efficiently that yield the desired intrinsics and
extrinsics with short path lengths. In simulation we are able to perform
calibrations 10 times faster than hand-crafted policies, which transfers to a
real-world speed up of 3 times over a human expert.
- Abstract(参考訳): 視覚慣性センサーは、ロボット工学に幅広い応用がある。
しかし、優れたパフォーマンスは、カメラ内在とセンサー間外在を正確に調整するために、異なる高度な動作ルーチンを必要とすることが多い。
本研究は,ロボットアーム上で実行される動作ポリシーを学習し,内在・外在を共同で校正するための自動データ収集方法である。
提案手法は, モデルレス深部強化学習を用いてコンパクトにキャリブレーション過程をモデル化し, センサを有するロボットアームの動作を誘導し, カメラ内装キャリブレーションとカメラ外装キャリブレーションの両方に使用できる測定値を効率的に収集する。
現在のポーズと収集された測定値から、学習されたポリシーは、センサーの校正精度を最適化するその後の変換を生成する。
シミュレーションと実際のロボットシステムによる評価は,学習方針が良好な運動軌跡を生成できることを示し,所望の内在・外因論を短い経路長で効率よく収集することを示した。
シミュレーションでは、手作りのポリシーの10倍の速さでキャリブレーションを実行できます。
関連論文リスト
- Neural Real-Time Recalibration for Infrared Multi-Camera Systems [2.249916681499244]
赤外線マルチカメラシステムのリアルタイム再校正には、学習のない、あるいはニューラルネットワーク技術は存在しない。
動的リアルタイムキャリブレーションが可能なニューラルネットワークに基づく手法を提案する。
論文 参考訳(メタデータ) (2024-10-18T14:37:37Z) - Reinforcement Learning Approach to Optimizing Profilometric Sensor Trajectories for Surface Inspection [0.0]
製造における高精度表面欠陥検出は品質管理の確保に不可欠である。
レーザー三角プロファイリングセンサーがこのプロセスの鍵となる。
本稿では,プロファイロメータセンサの検査軌道を最適化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-05T11:20:12Z) - Kalib: Markerless Hand-Eye Calibration with Keypoint Tracking [52.4190876409222]
ハンドアイキャリブレーションでは、カメラとロボット間の変換を推定する。
ディープラーニングの最近の進歩は、マーカーレス技術を提供するが、それらは課題を提示している。
自動的かつ普遍的なマーカーレスハンドアイキャリブレーションパイプラインであるKalibを提案する。
論文 参考訳(メタデータ) (2024-08-20T06:03:40Z) - Joint Spatial-Temporal Calibration for Camera and Global Pose Sensor [0.4143603294943439]
ロボット工学において、モーションキャプチャシステムはローカライズアルゴリズムの精度を測定するために広く利用されている。
これらの機能は、カメラとグローバルポーズセンサーの間で正確で信頼性の高い時空間キャリブレーションパラメータを必要とする。
本研究では,これらのキャリブレーションパラメータを推定する新しい2つの手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T20:56:14Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - How to Calibrate Your Event Camera [58.80418612800161]
画像再構成を用いた汎用イベントカメラキャリブレーションフレームワークを提案する。
ニューラルネットワークに基づく画像再構成は,イベントカメラの内在的・外在的キャリブレーションに適していることを示す。
論文 参考訳(メタデータ) (2021-05-26T07:06:58Z) - Automatic Extrinsic Calibration Method for LiDAR and Camera Sensor
Setups [68.8204255655161]
本論文では,LiDAR,単眼,ステレオカメラを含む任意のセンサのパラメータを校正する手法を提案する。
提案手法は、通常、車両のセットアップで見られるように、非常に異なる解像度とポーズのデバイスを扱うことができる。
論文 参考訳(メタデータ) (2021-01-12T12:02:26Z) - Learning Trajectories for Visual-Inertial System Calibration via
Model-based Heuristic Deep Reinforcement Learning [34.58853427240756]
モデルに基づく深部強化学習を用いて,視覚慣性系校正に適した軌道を得るための新しい手法を提案する。
我々の重要な貢献は、キャリブレーション過程をマルコフ決定プロセスとしてモデル化し、モデルに基づく深部強化学習と粒子群最適化を用いて、ロボットアームで行うキャリブレーション軌道のシーケンスを確立することである。
論文 参考訳(メタデータ) (2020-11-04T23:20:15Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。