論文の概要: A Wide-area, Low-latency, and Power-efficient 6-DoF Pose Tracking System
for Rigid Objects
- arxiv url: http://arxiv.org/abs/2109.07428v1
- Date: Wed, 15 Sep 2021 17:01:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:47:30.796697
- Title: A Wide-area, Low-latency, and Power-efficient 6-DoF Pose Tracking System
for Rigid Objects
- Title(参考訳): 剛体物体の広域・低レイテンシ・電力効率6-DoF追跡システム
- Authors: Young-Ho Kim, Ankur Kapoor, Tommaso Mansi, Ali Kamen
- Abstract要約: 単一のアクティブマーカーを必要とする剛体物体追跡のための新しい6-DoFポーズトラッキングシステムを提案する。
ステレオベースのPSDペアと複数慣性測定ユニット(IMU)を用いたシステムを提案する。
- 参考スコア(独自算出の注目度): 4.857848134759526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Position sensitive detectors (PSDs) offer possibility to track single active
marker's two (or three) degrees of freedom (DoF) position with a high accuracy,
while having a fast response time with high update frequency and low latency,
all using a very simple signal processing circuit. However they are not
particularly suitable for 6-DoF object pose tracking system due to lack of
orientation measurement, limited tracking range, and sensitivity to
environmental variation. We propose a novel 6-DoF pose tracking system for a
rigid object tracking requiring a single active marker. The proposed system
uses a stereo-based PSD pair and multiple Inertial Measurement Units (IMUs).
This is done based on a practical approach to identify and control the power of
Infrared-Light Emitting Diode (IR-LED) active markers, with an aim to increase
the tracking work space and reduce the power consumption. Our proposed tracking
system is validated with three different work space sizes and for static and
dynamic positional accuracy using robotic arm manipulator with three different
dynamic motion patterns. The results show that the static position
root-mean-square (RMS) error is 0.6mm. The dynamic position RMS error is
0.7-0.9mm. The orientation RMS error is between 0.04 and 0.9 degree at varied
dynamic motion. Overall, our proposed tracking system is capable of tracking a
rigid object pose with sub-millimeter accuracy at the mid range of the work
space and sub-degree accuracy for all work space under a lab setting.
- Abstract(参考訳): 位置感度検出器(PSD)は、単一のアクティブマーカーの2度(または3度)自由度(DoF)の位置を高精度に追跡できると同時に、高速な応答時間と高い更新周波数と低レイテンシを持つ。
しかし, 方位測定の欠如, 追跡範囲の制限, 環境変動に対する感受性などにより, 6自由度物体姿勢追跡システムには特に適さない。
単一のアクティブマーカーを必要とする剛体物体追跡のための新しい6-DoFポーズトラッキングシステムを提案する。
提案システムは、ステレオベースのPSDペアと複数慣性測定ユニット(IMU)を用いる。
これは、赤外線発光ダイオード(IR-LED)のアクティブマーカーのパワーを特定し制御するための実用的なアプローチに基づいて、トラッキング作業量を増やし、消費電力を減らすことを目的としている。
提案するトラッキングシステムは,3つの作業空間サイズ,および3つの動作パターンを持つロボットアームマニピュレータを用いた静的および動的位置精度で検証した。
その結果, 静的位置のルート平均二乗(RMS)誤差は0.6mmであった。
動的位置 RMS 誤差は 0.7-0.9mm である。
RMSの向きの誤差は0.04から0.9度であり、動的運動は様々である。
全体として,提案するトラッキングシステムは,作業空間の中間領域における剛体姿勢と,実験室環境下のすべての作業空間における低度精度を追跡することができる。
関連論文リスト
- Ultra Inertial Poser: Scalable Motion Capture and Tracking from Sparse Inertial Sensors and Ultra-Wideband Ranging [23.010268017856824]
我々は,新しい3次元フルボディポーズ推定法であるUltra Inertial Poserを提案する。
本手法は,センサ間距離による慣性追跡においてドリフトとジッタを制約する。
提案手法のPIPおよびTIP上での最先端性能について実験を行った。
論文 参考訳(メタデータ) (2024-04-30T13:14:11Z) - DiffusionPoser: Real-time Human Motion Reconstruction From Arbitrary Sparse Sensors Using Autoregressive Diffusion [10.439802168557513]
限られた数のボディウーンセンサーからのモーションキャプチャーは、健康、人間のパフォーマンス、エンターテイメントに重要な応用がある。
最近の研究は、6つのIMUを用いて、特定のセンサー構成から全身の動きを正確に再構築することに焦点を当てている。
センサの任意の組み合わせから人の動きをリアルタイムで再現する単一拡散モデルDiffusionPoserを提案する。
論文 参考訳(メタデータ) (2023-08-31T12:36:50Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Adaptive Multi-source Predictor for Zero-shot Video Object Segmentation [68.56443382421878]
ゼロショットビデオオブジェクトセグメンテーション(ZVOS)のための新しい適応型マルチソース予測器を提案する。
静的オブジェクト予測器では、RGBソースは、同時に深度および静注ソースに変換される。
実験の結果,提案モデルは3つのZVOSベンチマークにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-03-18T10:19:29Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Robot Self-Calibration Using Actuated 3D Sensors [0.0]
本稿では,ロボットのキャリブレーションをオフラインのSLAM問題として扱う。
これにより、任意の眼深度センサのみを用いてロボットのキャリブレーションを行うことができる。
各種の3Dセンサーを装着した実ロボットに対して,システムの詳細評価を行った。
論文 参考訳(メタデータ) (2022-06-07T16:35:08Z) - A Lightweight and Detector-free 3D Single Object Tracker on Point Clouds [50.54083964183614]
生のLiDARスキャンにおける物体の点雲は、通常スパースで不完全であるため、正確な目標固有検出を行うのは簡単ではない。
DMTは、複雑な3D検出器の使用を完全に除去する3Dトラッキングネットワークである。
論文 参考訳(メタデータ) (2022-03-08T17:49:07Z) - LiDAR Point--to--point Correspondences for Rigorous Registration of
Kinematic Scanning in Dynamic Networks [0.0]
本稿では,LiDAR点雲の登録を改善するための新しい軌道調整手法を提案する。
本稿では、新しい観測モデルとして、動的ネットワークにどのように挿入されるか、および対応を選択する方法について述べる。
次に、低コストMEMS慣性センサを用いた実用的な空中レーザー走査シナリオにおける提案手法の性能評価実験について述べる。
論文 参考訳(メタデータ) (2022-01-03T11:53:55Z) - Unified Multi-Modal Landmark Tracking for Tightly Coupled
Lidar-Visual-Inertial Odometry [5.131684964386192]
視覚,ライダー,慣性情報を協調的に最適化するモバイルプラットフォームのための効率的なマルチセンサ・オドメトリーシステムを提案する。
ライダー点雲から3次元線と平面原始体を抽出する新しい手法を提案する。
システムは、脚のあるロボットによる地下探査や、動的に動くハンドヘルドデバイスによる屋外スキャンなど、さまざまなプラットフォームやシナリオでテストされてきた。
論文 参考訳(メタデータ) (2020-11-13T09:54:03Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。