論文の概要: Tracking Fast by Learning Slow: An Event-based Speed Adaptive Hand
Tracker Leveraging Knowledge in RGB Domain
- arxiv url: http://arxiv.org/abs/2302.14430v1
- Date: Tue, 28 Feb 2023 09:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:20:59.059558
- Title: Tracking Fast by Learning Slow: An Event-based Speed Adaptive Hand
Tracker Leveraging Knowledge in RGB Domain
- Title(参考訳): slowの学習による高速追跡: rgbドメインの知識を活用したイベントベース速度適応ハンドトラッカ
- Authors: Chuanlin Lan, Ziyuan Yin, Arindam Basu, Rosa H. M. Chan
- Abstract要約: 高時間分解能・ダイナミックレンジのセンサであるイベントカメラは,低出力・低消費電力の課題に自然に適している。
本研究では,イベントカメラに基づくハンドトラッキング問題を解決するために,イベントベースの速度適応ハンドトラッカー(ESAHT)を開発した。
我々のソリューションは、高速ハンドトラッキングタスクにおけるRGBベースと、それ以前のイベントベースのソリューションよりも優れており、コードとデータセットが公開されます。
- 参考スコア(独自算出の注目度): 4.530678016396477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D hand tracking methods based on monocular RGB videos are easily affected by
motion blur, while event camera, a sensor with high temporal resolution and
dynamic range, is naturally suitable for this task with sparse output and low
power consumption. However, obtaining 3D annotations of fast-moving hands is
difficult for constructing event-based hand-tracking datasets. In this paper,
we provided an event-based speed adaptive hand tracker (ESAHT) to solve the
hand tracking problem based on event camera. We enabled a CNN model trained on
a hand tracking dataset with slow motion, which enabled the model to leverage
the knowledge of RGB-based hand tracking solutions, to work on fast hand
tracking tasks. To realize our solution, we constructed the first 3D hand
tracking dataset captured by an event camera in a real-world environment,
figured out two data augment methods to narrow the domain gap between slow and
fast motion data, developed a speed adaptive event stream segmentation method
to handle hand movements in different moving speeds, and introduced a new
event-to-frame representation method adaptive to event streams with different
lengths. Experiments showed that our solution outperformed RGB-based as well as
previous event-based solutions in fast hand tracking tasks, and our codes and
dataset will be publicly available.
- Abstract(参考訳): 単眼のrgbビデオに基づく3dハンドトラッキングはモーションボケの影響を受けやすいが、時間分解能が高くダイナミックレンジのセンサーであるイベントカメラは、出力が少なく消費電力も少ないこのタスクに適している。
しかし、イベントベースのハンドトラッキングデータセットを構築するには、手の動きの速い3Dアノテーションの取得が困難である。
本稿では,イベントカメラに基づくハンドトラッキング問題を解決するために,イベントベースの速度適応ハンドトラッカー(ESAHT)を提案する。
動作が遅いハンドトラッキングデータセットでトレーニングされたCNNモデルを,RGBベースのハンドトラッキングソリューションの知識を活用して,高速ハンドトラッキングタスクの開発を可能にした。
提案手法を実現するために,実環境においてイベントカメラによってキャプチャされた最初の3次元手の動き追跡データセットを構築し,スローモーションデータと高速モーションデータの間の領域ギャップを狭めるための2つのデータ拡張手法を考案し,異なる移動速度で手の動きを処理するための速度適応型イベントストリームセグメンテーション法を開発し,異なる長さのイベントストリームに適応する新しいイベント・ツー・フレーム表現法を導入した。
実験の結果、我々のソリューションは、高速ハンドトラッキングタスクにおけるRGBベースと、それ以前のイベントベースのソリューションよりも優れており、コードとデータセットが公開されます。
関連論文リスト
- CRSOT: Cross-Resolution Object Tracking using Unaligned Frame and Event
Cameras [43.699819213559515]
既存のRGB-DVSトラッキング用のデータセットは、DVS346カメラで収集される。
我々は、特別に構築されたデータ取得システムを用いて収集された、最初の不整合フレームイベントデータセットCRSOTを構築した。
ゆるやかなRGBイベントデータを用いても、ロバストなトラッキングを実現することのできる、新しい非整列オブジェクト追跡フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T14:20:22Z) - 3D Pose Estimation of Two Interacting Hands from a Monocular Event
Camera [59.846927201816776]
本稿では,1つの単眼イベントカメラから手の動きの速い2つの手の動きを3次元追跡するための最初のフレームワークを紹介する。
本手法は, 半教師付き機能的注意機構により, 左手のあいまいさに対処し, 交差点の損失を補足して手衝突を解消する。
論文 参考訳(メタデータ) (2023-12-21T18:59:57Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Event Camera-based Visual Odometry for Dynamic Motion Tracking of a
Legged Robot Using Adaptive Time Surface [5.341864681049579]
イベントカメラは高時間分解能とダイナミックレンジを提供しており、高速移動時のぼやけたRGB画像の問題を排除できる。
本稿では,従来の時間面におけるホワイトアウト問題とブラックアウト問題に対処する適応時間面(ATS)手法を提案する。
最後に,RGBとイベントベースの地図と画像の両方で3D-2Dアライメントを同時に行う非線形ポーズ最適化式を提案する。
論文 参考訳(メタデータ) (2023-05-15T19:03:45Z) - Event-based tracking of human hands [0.6875312133832077]
イベントカメラは、明るさの変化、動きの測定、低レイテンシ、動きのぼけのない、消費電力の低い、ダイナミックレンジの高い検出を行う。
キャプチャされたフレームは、3次元手の位置データを報告する軽量アルゴリズムを用いて分析される。
論文 参考訳(メタデータ) (2023-04-13T13:43:45Z) - VisEvent: Reliable Object Tracking via Collaboration of Frame and Event
Flows [93.54888104118822]
このタスクには現実的でスケールしたデータセットがないため、大規模なVisible-Eventベンチマーク(VisEventと呼ぶ)を提案する。
私たちのデータセットは、低照度、高速、背景乱雑なシナリオ下でキャプチャされた820のビデオペアで構成されています。
VisEventに基づいて、イベントフローをイベントイメージに変換し、30以上のベースラインメソッドを構築します。
論文 参考訳(メタデータ) (2021-08-11T03:55:12Z) - RGB2Hands: Real-Time Tracking of 3D Hand Interactions from Monocular RGB
Video [76.86512780916827]
本稿では,1台のRGBカメラによる骨格ポーズのモーションキャプチャと手の表面形状をリアルタイムに計測する手法を提案する。
RGBデータの本質的な深さの曖昧さに対処するために,我々は新しいマルチタスクCNNを提案する。
RGBの片手追跡と3D再構築パイプラインの個々のコンポーネントを実験的に検証した。
論文 参考訳(メタデータ) (2021-06-22T12:53:56Z) - Differentiable Event Stream Simulator for Non-Rigid 3D Tracking [82.56690776283428]
我々の微分可能シミュレータは、イベントストリームから変形可能なオブジェクトの非剛性3D追跡を可能にする。
様々な種類の非剛体物体に対するアプローチの有効性を示し, 既存の非剛体3次元追跡手法と比較した。
論文 参考訳(メタデータ) (2021-04-30T17:58:07Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。