論文の概要: Event-based tracking of human hands
- arxiv url: http://arxiv.org/abs/2304.06534v1
- Date: Thu, 13 Apr 2023 13:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-14 14:15:04.095790
- Title: Event-based tracking of human hands
- Title(参考訳): ヒューマンハンドのイベントベーストラッキング
- Authors: Laura Duarte, Mohammad Safeea, Pedro Neto
- Abstract要約: イベントカメラは、明るさの変化、動きの測定、低レイテンシ、動きのぼけのない、消費電力の低い、ダイナミックレンジの高い検出を行う。
キャプチャされたフレームは、3次元手の位置データを報告する軽量アルゴリズムを用いて分析される。
- 参考スコア(独自算出の注目度): 0.6875312133832077
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel method for human hands tracking using data from
an event camera. The event camera detects changes in brightness, measuring
motion, with low latency, no motion blur, low power consumption and high
dynamic range. Captured frames are analysed using lightweight algorithms
reporting 3D hand position data. The chosen pick-and-place scenario serves as
an example input for collaborative human-robot interactions and in obstacle
avoidance for human-robot safety applications. Events data are pre-processed
into intensity frames. The regions of interest (ROI) are defined through object
edge event activity, reducing noise. ROI features are extracted for use
in-depth perception. Event-based tracking of human hand demonstrated feasible,
in real time and at a low computational cost. The proposed ROI-finding method
reduces noise from intensity images, achieving up to 89% of data reduction in
relation to the original, while preserving the features. The depth estimation
error in relation to ground truth (measured with wearables), measured using
dynamic time warping and using a single event camera, is from 15 to 30
millimetres, depending on the plane it is measured. Tracking of human hands in
3D space using a single event camera data and lightweight algorithms to define
ROI features (hands tracking in space).
- Abstract(参考訳): 本稿では,イベントカメラのデータを用いた人手追跡の新しい手法を提案する。
イベントカメラは、明るさの変化、動きの測定、低レイテンシー、動きのぼやけ、低消費電力、高ダイナミックレンジを検出する。
キャプチャフレームは、3次元手の位置データを報告する軽量アルゴリズムを用いて分析される。
選択されたピック・アンド・プレイスシナリオは、協調的な人間とロボットの相互作用や、人間とロボットの安全アプリケーションに対する障害物回避の例として機能する。
イベントデータは、強度フレームに前処理される。
関心領域(ROI)は、オブジェクトエッジイベントアクティビティを通じて定義され、ノイズを低減します。
ROI特徴は奥行き知覚のために抽出される。
イベントベースの人手追跡は、リアルタイムかつ低コストで実現可能であることを示した。
提案手法は,インテンシティ画像からのノイズを低減し,特徴を保ちつつ,オリジナルデータに対して最大89%のデータ削減を実現する。
動的時間ワープおよび単一イベントカメラを用いて測定された地表面の真理(ウェアラブルで測定)に関する深さ推定誤差は、測定対象の平面に応じて15~30ミリメートルである。
単一のイベントカメラデータと、ROI機能(空間内のハンドトラッキング)を定義するための軽量アルゴリズムを使用して、人間の手を3D空間で追跡する。
関連論文リスト
- Line-based 6-DoF Object Pose Estimation and Tracking With an Event Camera [19.204896246140155]
イベントカメラは、高いダイナミックレンジ、低レイテンシ、動きのぼけに対するレジリエンスといった顕著な特性を持っている。
イベントカメラを用いた平面オブジェクトや非平面オブジェクトに対するラインベースロバストポーズ推定と追跡手法を提案する。
論文 参考訳(メタデータ) (2024-08-06T14:36:43Z) - EventEgo3D: 3D Human Motion Capture from Egocentric Event Streams [59.77837807004765]
本稿では,魚眼レンズを用いた一眼一眼レフカメラによる3次元モーションキャプチャーという新たな課題を紹介する。
イベントストリームは、時間分解能が高く、高速な人間の動作下での3次元モーションキャプチャーと、急速に変化する照明のための信頼性の高い手がかりを提供する。
我々のEE3Dは、リアルタイム3Dポーズ更新レートを140Hzでサポートしながら、既存のソリューションと比較して堅牢性と優れた3D精度を示す。
論文 参考訳(メタデータ) (2024-04-12T17:59:47Z) - 3D Human Scan With A Moving Event Camera [7.734104968315144]
イベントカメラは高時間分解能と高ダイナミックレンジの利点がある。
本稿では,3次元ポーズ推定とヒューマンメッシュ復元のためのイベントベース手法を提案する。
論文 参考訳(メタデータ) (2024-04-12T14:34:24Z) - Tracking Fast by Learning Slow: An Event-based Speed Adaptive Hand
Tracker Leveraging Knowledge in RGB Domain [4.530678016396477]
高時間分解能・ダイナミックレンジのセンサであるイベントカメラは,低出力・低消費電力の課題に自然に適している。
本研究では,イベントカメラに基づくハンドトラッキング問題を解決するために,イベントベースの速度適応ハンドトラッカー(ESAHT)を開発した。
我々のソリューションは、高速ハンドトラッキングタスクにおけるRGBベースと、それ以前のイベントベースのソリューションよりも優れており、コードとデータセットが公開されます。
論文 参考訳(メタデータ) (2023-02-28T09:18:48Z) - Data-driven Feature Tracking for Event Cameras [48.04815194265117]
グレースケールフレームで検出された特徴を追跡するために、低レイテンシイベントを活用するイベントカメラのための、最初のデータ駆動機能トラッカーを紹介した。
合成データから実データに直接ゼロショットを転送することで、我々のデータ駆動トラッカーは、相対的特徴年齢における既存のアプローチを最大120%向上させる。
この性能ギャップはさらに130%増加し、トラッカーを新たな自己超越戦略で実データに適用する。
論文 参考訳(メタデータ) (2022-11-23T10:20:11Z) - PUCK: Parallel Surface and Convolution-kernel Tracking for Event-Based
Cameras [4.110120522045467]
イベントカメラは、動的環境における高速な視覚センシングを保証できるが、ロボットのエゴモーションによって引き起こされる高いデータ速度に追従できる追跡アルゴリズムを必要とする。
本稿では,EROS(Exponential Reduced Ordinal Surface)データ表現を利用してイベント・バイ・イベント処理とトラッキングを分離する新しいトラッキング手法を提案する。
エアホッケーパックが表面を滑り落ちるのをトラッキングするタスクを提案し、将来はiCubロボットを正確に時間通りに目標に到達させることが目的である。
論文 参考訳(メタデータ) (2022-05-16T13:23:52Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。