論文の概要: Exploiting Spatiotemporal Properties for Efficient Event-Driven Human Pose Estimation
- arxiv url: http://arxiv.org/abs/2512.06306v1
- Date: Sat, 06 Dec 2025 05:32:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.298368
- Title: Exploiting Spatiotemporal Properties for Efficient Event-Driven Human Pose Estimation
- Title(参考訳): 効率的な事象駆動型人文推定のための時空間時空間特性の爆発的評価
- Authors: Haoxian Zhou, Chuanzhi Xu, Langyi Chen, Haodong Chen, Yuk Ying Chung, Qiang Qu, Xaoming Chen, Weidong Cai,
- Abstract要約: イベントカメラは、高時間分解能と低レイテンシを提供し、困難な条件下で堅牢な推定を可能にする。
既存のほとんどの方法は、イベントストリームをイベントフレームに変換し、イベントシグナルの高時間分解能を犠牲にする。
本研究では,人間のポーズ推定性能を向上させるために設計されたポイントベースフレームワーク上でのイベントストリームを活用することを目的とする。
- 参考スコア(独自算出の注目度): 15.899725453972787
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Human pose estimation focuses on predicting body keypoints to analyze human motion. Event cameras provide high temporal resolution and low latency, enabling robust estimation under challenging conditions. However, most existing methods convert event streams into dense event frames, which adds extra computation and sacrifices the high temporal resolution of the event signal. In this work, we aim to exploit the spatiotemporal properties of event streams based on point cloud-based framework, designed to enhance human pose estimation performance. We design Event Temporal Slicing Convolution module to capture short-term dependencies across event slices, and combine it with Event Slice Sequencing module for structured temporal modeling. We also apply edge enhancement in point cloud-based event representation to enhance spatial edge information under sparse event conditions to further improve performance. Experiments on the DHP19 dataset show our proposed method consistently improves performance across three representative point cloud backbones: PointNet, DGCNN, and Point Transformer.
- Abstract(参考訳): 人間のポーズ推定は、人間の動きを分析するために身体のキーポイントを予測することに焦点を当てる。
イベントカメラは、高時間分解能と低レイテンシを提供し、困難な条件下で堅牢な推定を可能にする。
しかし、既存のほとんどのメソッドは、イベントストリームを高密度のイベントフレームに変換し、余分な計算を加え、イベント信号の高時間解像度を犠牲にする。
本研究では,人間のポーズ推定性能を向上させるために,ポイントクラウドベースのフレームワークに基づくイベントストリームの時空間特性を活用することを目的とする。
イベントスライシング・コンボリューション(Event Temporal Slicing Convolution)モジュールを設計し、イベントスライス間の短期依存関係をキャプチャし、イベントスライス・シーケンシング・モジュールと組み合わせて構造化時間モデリングを行う。
また,粗いイベント条件下での空間エッジ情報を強化するために,点雲に基づくイベント表現におけるエッジ強調を適用し,性能をさらに向上する。
DHP19データセットを用いた実験により,提案手法は3つの代表的なクラウドバックボーン(PointNet, DGCNN, Point Transformer)で連続的に性能を向上することを示した。
関連論文リスト
- EventSTU: Event-Guided Efficient Spatio-Temporal Understanding for Video Large Language Models [56.16721798968254]
本研究では,EventSTUという,効率的な理解のためのイベント誘導学習自由フレームワークを提案する。
時間領域において、不要な大フレームを除去するために、イベントカメラのトリガー特性を変化させる粗大なサンプリングアルゴリズムを設計する。
空間領域では,イベントの正当性をゼロコストとして活用し,空間的縮小を誘導する適応的トークンプルーニングアルゴリズムを実現する。
論文 参考訳(メタデータ) (2025-11-24T09:30:02Z) - Hybrid Spiking Vision Transformer for Object Detection with Event Cameras [19.967565219584056]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費とリッチダイナミクスを提供する、有望なアプローチとして登場した。
本研究では,イベントベース物体検出の性能向上を目的としたハイブリッドトランスフォーマー(HsVT)モデルを提案する。
実験結果から,HsVTはより少ないパラメータでイベント検出において大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2025-05-12T16:19:20Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Frequency-aware Event Cloud Network [22.41905416371072]
イベントクラウド表現を利用した周波数対応ネットワークFECNetを提案する。
FECNetはイベントベースのGroup and Smplingモジュールを革新することで、2S-1T-1P Event Cloudを完全に活用している。
イベントベースオブジェクト分類、行動認識、人間のポーズ推定タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2024-12-30T08:53:57Z) - Rethinking Efficient and Effective Point-based Networks for Event Camera Classification and Regression: EventMamba [11.400397931501338]
イベントカメラは生物学的システムからインスピレーションを受け、低レイテンシと高ダイナミックレンジを持ち、最小限の電力を消費する。
Event Cloudの処理に対する現在のアプローチは、フレームベースの表現に変換することが多い。
我々はPoint Cloud表現に基づく効率的かつ効果的なフレームワークであるEventMambaを提案する。
論文 参考訳(メタデータ) (2024-05-09T21:47:46Z) - MambaPupil: Bidirectional Selective Recurrent model for Event-based Eye tracking [50.26836546224782]
事象に基づく視線追跡は、高時間分解能と低冗長性で非常に有望である。
点眼、固定、ササード、スムーズな追跡を含む眼球運動パターンの多様性と急激さは、眼球運動の局所化に重要な課題を提起する。
本稿では、文脈時空間情報を完全に活用するための双方向の長期シーケンスモデリングと時間変化状態選択機構を提案する。
論文 参考訳(メタデータ) (2024-04-18T11:09:25Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。