論文の概要: A Monocular Event-Camera Motion Capture System
- arxiv url: http://arxiv.org/abs/2502.12113v1
- Date: Mon, 17 Feb 2025 18:38:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:09.138861
- Title: A Monocular Event-Camera Motion Capture System
- Title(参考訳): 単眼イベントカメラモーションキャプチャシステム
- Authors: Leonard Bauersfeld, Davide Scaramuzza,
- Abstract要約: 本稿では,この制限を克服し,狭い空間に適した単眼イベントカメラモーションキャプチャシステムについて述べる。
受動的マーカーの代わりにLEDマーカーを点滅させ、各マーカーを方向周波数から一意に識別できるようにしている。
開発したシステムにはミリ秒の精度,ミリ秒のレイテンシがあり,その状態推定がアジャイルな小型クオータの飛行に有効であることを示す。
- 参考スコア(独自算出の注目度): 22.30914818152441
- License:
- Abstract: Motion capture systems are a widespread tool in research to record ground-truth poses of objects. Commercial systems use reflective markers attached to the object and then triangulate pose of the object from multiple camera views. Consequently, the object must be visible to multiple cameras which makes such multi-view motion capture systems unsuited for deployments in narrow, confined spaces (e.g. ballast tanks of ships). In this technical report we describe a monocular event-camera motion capture system which overcomes this limitation and is ideally suited for narrow spaces. Instead of passive markers it relies on active, blinking LED markers such that each marker can be uniquely identified from the blinking frequency. The markers are placed at known locations on the tracking object. We then solve the PnP (perspective-n-points) problem to obtain the position and orientation of the object. The developed system has millimeter accuracy, millisecond latency and we demonstrate that its state estimate can be used to fly a small, agile quadrotor.
- Abstract(参考訳): モーションキャプチャーシステムは、物体の地味なポーズを記録する研究において広く使われているツールである。
商用システムは、オブジェクトに取り付けられた反射マーカーを使用して、複数のカメラビューからオブジェクトのポーズを三角測量する。
そのため、オブジェクトは複数のカメラに視認されなければならないため、狭い狭い場所(船のバラストタンクなど)での展開には適さないマルチビューモーションキャプチャシステムとなる。
本稿では,この制限を克服し,狭い空間に適した単眼イベントカメラモーションキャプチャシステムについて述べる。
受動マーカーの代わりにLEDマーカーを点滅させ、点滅周波数からそれぞれのマーカーを識別できるようにしている。
マーカーは追跡対象の既知の場所に置かれる。
次に、PnP(perspective-n-points)問題を解いて、対象の位置と向きを求める。
開発したシステムにはミリ秒の精度,ミリ秒のレイテンシがあり,その状態推定がアジャイルな小型クオータの飛行に有効であることを示す。
関連論文リスト
- SpikeMOT: Event-based Multi-Object Tracking with Sparse Motion Features [52.213656737672935]
SpikeMOTはイベントベースのマルチオブジェクトトラッカーである。
SpikeMOTはスパイクニューラルネットワークを使用して、オブジェクトに関連するイベントストリームからスパーステンポラルな特徴を抽出する。
論文 参考訳(メタデータ) (2023-09-29T05:13:43Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - TrajectoryFormer: 3D Object Tracking Transformer with Predictive
Trajectory Hypotheses [51.60422927416087]
3Dマルチオブジェクトトラッキング(MOT)は、自律走行車やサービスロボットを含む多くのアプリケーションにとって不可欠である。
本稿では,新しいポイントクラウドベースの3DMOTフレームワークであるTrjectoryFormerを紹介する。
論文 参考訳(メタデータ) (2023-06-09T13:31:50Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Autonomous Marker-less Rapid Aerial Grasping [5.892028494793913]
本稿では,自律的高速空中把握のための視覚ベースシステムを提案する。
検出対象の高密度点雲を生成し,幾何に基づく把握計画を行う。
飛行プラットフォームを用いた幾何学的把握技術の最初の利用例を示す。
論文 参考訳(メタデータ) (2022-11-23T16:25:49Z) - TripletTrack: 3D Object Tracking using Triplet Embeddings and LSTM [0.0]
3Dオブジェクトトラッキングは、自動運転システムにおいて重要なタスクである。
本稿では,3次元物体追跡における3重項埋め込みと動作表現の併用について検討する。
論文 参考訳(メタデータ) (2022-10-28T15:23:50Z) - Learning to Track Object Position through Occlusion [32.458623495840904]
オクルージョンは、物体検出器やトラッカーが直面する最も重要な課題の1つである。
本稿では,領域ベースビデオオブジェクト検出装置の成功に基づくトラッキング・バイ・検出手法を提案する。
提案手法は,インターネットから収集した家具組立ビデオのデータセットにおいて,優れた結果が得られる。
論文 参考訳(メタデータ) (2021-06-20T22:29:46Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Simultaneous Multi-View Camera Pose Estimation and Object Tracking with
Square Planar Markers [0.0]
本稿では,上記の問題を同時に解く新しい手法を提案する。
複数のカメラから記録された平面マーカーの厳密な集合を示すビデオシーケンスから,提案手法はマーカーの3次元構成を自動的に得ることができる。
パラメータが取得されると、オブジェクトの追跡は、低い計算コストでリアルタイムで行うことができます。
論文 参考訳(メタデータ) (2021-03-16T15:33:58Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。