論文の概要: Robotic Testbed for Rendezvous and Optical Navigation: Multi-Source
Calibration and Machine Learning Use Cases
- arxiv url: http://arxiv.org/abs/2108.05529v1
- Date: Thu, 12 Aug 2021 04:38:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:40:48.216192
- Title: Robotic Testbed for Rendezvous and Optical Navigation: Multi-Source
Calibration and Machine Learning Use Cases
- Title(参考訳): レンデブーと光ナビゲーションのためのロボットテストベッド:マルチソース校正と機械学習のユースケース
- Authors: Tae Ha Park, Juergen Bosse, Simone D'Amico
- Abstract要約: この研究は、スタンフォード大学のRendezvous and Optical Navigation (TRON)のためのRobotic Testbedの最新の進歩を示す。
TRONの施設は、2つの6自由度KUKAロボットアームと、カメラとターゲットモックアップモデルの間の任意の相対的なポーズを再構成するViconモーショントラックカメラで構成されている。
合成画像に予めトレーニングされた畳み込みニューラルネットワーク(CNN)を用いて合成画像とTRONシミュレーション画像の比較解析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This work presents the most recent advances of the Robotic Testbed for
Rendezvous and Optical Navigation (TRON) at Stanford University - the first
robotic testbed capable of validating machine learning algorithms for
spaceborne optical navigation. The TRON facility consists of two 6
degrees-of-freedom KUKA robot arms and a set of Vicon motion track cameras to
reconfigure an arbitrary relative pose between a camera and a target mockup
model. The facility includes multiple Earth albedo light boxes and a sun lamp
to recreate the high-fidelity spaceborne illumination conditions. After the
overview of the facility, this work details the multi-source calibration
procedure which enables the estimation of the relative pose between the object
and the camera with millimeter-level position and millidegree-level orientation
accuracies. Finally, a comparative analysis of the synthetic and TRON simulated
imageries is performed using a Convolutional Neural Network (CNN) pre-trained
on the synthetic images. The result shows a considerable gap in the CNN's
performance, suggesting the TRON simulated images can be used to validate the
robustness of any machine learning algorithms trained on more easily accessible
synthetic imagery from computer graphics.
- Abstract(参考訳): この研究は、スタンフォード大学のランデブー・オプティカルナビゲーション(tron)のためのロボットテストベッドの最新の進歩を示すものである。
TRON施設は2つの6自由度KUKAロボットアームと、カメラとターゲットモックアップモデルの間の任意の相対的なポーズを再構成するViconモーショントラックカメラから構成されている。
施設には複数のアースアルベドライトボックスとサンランプがあり、高忠実な宇宙空間の照明条件を再現する。
本研究は, 施設の概観後, 対象物とカメラの相対的な姿勢をミリレベルの位置とミリ度の方位精度で推定できるマルチソースキャリブレーション法について詳述する。
最後に、合成画像に予め訓練された畳み込みニューラルネットワーク(cnn)を用いて合成画像とトロンシミュレーション画像の比較分析を行う。
その結果、cnnのパフォーマンスにかなりのギャップがあることが示され、トロンシミュレーション画像はコンピュータグラフィックスからよりアクセスしやすい合成画像で訓練された任意の機械学習アルゴリズムの頑健性を検証するのに使用できることが示唆された。
関連論文リスト
- RETINA: a hardware-in-the-loop optical facility with reduced optical aberrations [0.0]
視覚に基づくナビゲーションアルゴリズムは、低コストで汎用的なセンサーで軌道上の宇宙船の状態を決定する効果的な解決策として自らを確立している。
実験室で軌道環境をエミュレートするために、専用のシミュレーションフレームワークを開発する必要がある。
本稿では,RETINAと呼ばれる低収差光学設備の設計について述べる。
論文 参考訳(メタデータ) (2024-07-02T11:26:37Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Enhanced Frame and Event-Based Simulator and Event-Based Video
Interpolation Network [1.4095425725284465]
固定オフセットに任意の数のセンサを配置したカメラリグによって記録されたリアルなシーンを生成できる,新しい高度なイベントシミュレータを提案する。
これには、現実的な画質低下効果を持つフレームベースの新しいイメージセンサモデルと、より正確な特性を持つ拡張DVSモデルが含まれる。
我々のシミュレータによって生成されたデータは、我々の新しいモデルをトレーニングするために利用でき、その結果、アートの状況よりも同等またはより良い品質の公開データセット上の再構成画像が生成される。
論文 参考訳(メタデータ) (2021-12-17T08:27:13Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Generative Modelling of BRDF Textures from Flash Images [50.660026124025265]
我々は、容易にキャプチャ、セマンティックな編集、一貫した、視覚素材の外観の効率よく再現できる潜在空間を学習する。
2番目のステップでは、材料コードに基づいて、私たちの方法は、BRDFモデルパラメータの無限で多様な空間フィールドを生成します。
論文 参考訳(メタデータ) (2021-02-23T18:45:18Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Multimodal Material Classification for Robots using Spectroscopy and
High Resolution Texture Imaging [14.458436940557924]
近赤外分光法と近距離高分解能テクスチャイメージングを利用したマルチモーダルセンシング技術を提案する。
この表現により、ロボットは従来の最先端のアプローチと比較して、より優れた性能で材料を認識できることが示される。
論文 参考訳(メタデータ) (2020-04-02T17:33:54Z) - Two-shot Spatially-varying BRDF and Shape Estimation [89.29020624201708]
形状とSVBRDFを段階的に推定した新しいディープラーニングアーキテクチャを提案する。
ドメインランダム化された幾何学と現実的な材料を用いた大規模合成学習データセットを作成する。
合成データセットと実世界のデータセットの両方の実験により、合成データセットでトレーニングされたネットワークが、実世界の画像に対してうまく一般化できることが示されている。
論文 参考訳(メタデータ) (2020-04-01T12:56:13Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。