論文の概要: DynaHOI: Benchmarking Hand-Object Interaction for Dynamic Target
- arxiv url: http://arxiv.org/abs/2602.11919v1
- Date: Thu, 12 Feb 2026 13:19:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.828136
- Title: DynaHOI: Benchmarking Hand-Object Interaction for Dynamic Target
- Title(参考訳): DynaHOI:動的ターゲットのためのハンドオブジェクトインタラクションのベンチマーク
- Authors: BoCheng Hu, Zhonghan Zhao, Kaiyue Zhou, Hongwei Wang, Gaoang Wang,
- Abstract要約: DynaHOI-Gymは、パラメータ化されたモーションジェネレータと動的キャプチャ評価のためのロールアウトベースのメトリクスを備えた、統合されたオンラインクローズドループプラットフォームである。
我々は10Mフレームと180Kハンドキャプチャ・トラジェクトリを備えた大規模ベンチマークであるDynaHOI-10Mをリリースし、ターゲット動作を8つのカテゴリと22のきめ細かいサブカテゴリに分類した。
- 参考スコア(独自算出の注目度): 23.52734014852651
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing hand motion generation benchmarks for hand-object interaction (HOI) focus on static objects, leaving dynamic scenarios with moving targets and time-critical coordination largely untested. To address this gap, we introduce the DynaHOI-Gym, a unified online closed-loop platform with parameterized motion generators and rollout-based metrics for dynamic capture evaluation. Built on DynaHOI-Gym, we release DynaHOI-10M, a large-scale benchmark with 10M frames and 180K hand capture trajectories, whose target motions are organized into 8 major categories and 22 fine-grained subcategories. We also provide a simple observe-before-act baseline (ObAct) that integrates short-term observations with the current frame via spatiotemporal attention to predict actions, achieving an 8.1% improvement in location success rate.
- Abstract(参考訳): ハンドオブジェクトインタラクション(HOI)のための既存の手動生成ベンチマークの多くは静的オブジェクトに重点を置いており、動いたターゲットと時間クリティカルな調整を伴う動的なシナリオは、ほとんどテストされていない。
このギャップに対処するために、パラメータ化されたモーションジェネレータとロールアウトに基づくダイナミックキャプチャー評価のためのメトリクスを備えたオンラインクローズドループプラットフォームDynaHOI-Gymを導入する。
DynaHOI-Gymをベースに構築されたDynaHOI-10Mは10Mフレームと180Kハンドキャプチャの軌跡を持つ大規模ベンチマークであり、ターゲット動作は8つの主要なカテゴリと22のきめ細かいサブカテゴリに分けられる。
また, 短時間の観察を現在のフレームと統合し, 時空間的注意による行動予測を行い, 位置成功率を8.1%向上させる, 簡易な観察行動ベースライン(ObAct)も提供する。
関連論文リスト
- Temporally Consistent Dynamic Scene Graphs: An End-to-End Approach for Action Tracklet Generation [1.6584112749108326]
TCDSG、Temporally Consistent Dynamic Scene Graphsは、時間を通して対象と対象の関係を検出し、追跡し、リンクするエンドツーエンドのフレームワークである。
私たちの研究は、マルチフレームビデオ分析における新しい標準を設定し、監視、自律ナビゲーションなどにおける、高インパクトなアプリケーションのための新たな道を開く。
論文 参考訳(メタデータ) (2024-12-03T20:19:20Z) - MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - MOT FCG++: Enhanced Representation of Spatio-temporal Motion and Appearance Features [0.0]
本稿では, 階層クラスタリング手法MOT FCGの改良により, 外観と時空間の動作特徴を表現できる新しい手法を提案する。
まず, 物体の位置と形状の関係をより正確に表現した, 対角変調GIoUを提案する。
外観特徴に対して、信頼情報を含む動的外観表現を用い、軌道の外観特徴をより堅牢でグローバルにすることができる。
論文 参考訳(メタデータ) (2024-11-15T08:17:05Z) - ETTrack: Enhanced Temporal Motion Predictor for Multi-Object Tracking [4.250337979548885]
時間的動き予測器であるETTrackを用いた動きに基づくMOT手法を提案する。
具体的には、動作予測器は、変換器モデルと時間畳み込みネットワーク(TCN)を統合して、短期および長期の動作パターンをキャプチャする。
本研究では,DanceTrackとSportsMOTの最先端トラッカーと比較して,ETTrackの競争性能が向上していることを示す。
論文 参考訳(メタデータ) (2024-05-24T17:51:33Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Motion Transformer with Global Intention Localization and Local Movement
Refinement [103.75625476231401]
動き TRansformer (MTR) は、大域的意図の局所化と局所的な動きの洗練の合同最適化として、動き予測をモデル化する。
MTRは、限界運動予測と関節運動予測の両方において最先端の性能を達成する。
論文 参考訳(メタデータ) (2022-09-27T16:23:14Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z) - 0-MMS: Zero-Shot Multi-Motion Segmentation With A Monocular Event Camera [13.39518293550118]
本稿では,ボトムアップ機能トラッキングとトップダウン動作補償を組み合わせたモノラルなマルチモーションセグメンテーション手法を提案する。
時間間隔内でのイベントを用いて、本手法はシーンを分割とマージによって複数の動作に分割する。
このアプローチは、EV-IMO、EED、MODデータセットから、挑戦的な現実シナリオと合成シナリオの両方で評価された。
論文 参考訳(メタデータ) (2020-06-11T02:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。