論文の概要: Spatial-Temporal Human-Object Interaction Detection
- arxiv url: http://arxiv.org/abs/2508.17270v1
- Date: Sun, 24 Aug 2025 09:43:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.436285
- Title: Spatial-Temporal Human-Object Interaction Detection
- Title(参考訳): 空間的時間的人間と物体の相互作用検出
- Authors: Xu Sun, Yunqing He, Tongwei Ren, Gangshan Wu,
- Abstract要約: 本稿では,ST-HOIDと呼ばれるビデオに対して,新たなインスタンスレベルのヒューマンオブジェクトインタラクション検出タスクを提案する。
対象物と対象物の微粒な相互作用(HOI)と軌跡を区別することを目的としている。
10,831個の時空間HOIインスタンスを含むST-HOID評価のためのVidOR-HOIDという最初のデータセットを構築した。
- 参考スコア(独自算出の注目度): 39.66571853156591
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new instance-level human-object interaction detection task on videos called ST-HOID, which aims to distinguish fine-grained human-object interactions (HOIs) and the trajectories of subjects and objects. It is motivated by the fact that HOI is crucial for human-centric video content understanding. To solve ST-HOID, we propose a novel method consisting of an object trajectory detection module and an interaction reasoning module. Furthermore, we construct the first dataset named VidOR-HOID for ST-HOID evaluation, which contains 10,831 spatial-temporal HOI instances. We conduct extensive experiments to evaluate the effectiveness of our method. The experimental results demonstrate that our method outperforms the baselines generated by the state-of-the-art methods of image human-object interaction detection, video visual relation detection and video human-object interaction recognition.
- Abstract(参考訳): そこで本研究では,ST-HOIDと呼ばれるビデオに対して,対象物と対象物の微粒な相互作用(HOI)と軌跡を識別することを目的とした,新たなインスタンスレベルのヒューマンオブジェクトインタラクション検出タスクを提案する。
HOIが人間中心のビデオコンテンツ理解に不可欠であるという事実がモチベーションとなっている。
ST-HOIDを解くために,物体軌道検出モジュールと相互作用推論モジュールからなる新しい手法を提案する。
さらに,10,831の時空間HOIインスタンスを含むST-HOID評価のためのVidOR-HOIDという最初のデータセットを構築した。
提案手法の有効性を評価するため, 広範囲な実験を行った。
実験の結果,本手法は,画像とオブジェクトのインタラクション検出,映像の視覚的関係検出,映像とオブジェクトのインタラクション認識といった,最先端の手法によって生成されたベースラインよりも優れていた。
関連論文リスト
- A Review of Human-Object Interaction Detection [10.20202786261744]
ヒトと物体の相互作用(HOI)の検出は、高レベルの視覚的理解において重要な役割を果たす。
本稿では,画像に基づくHOI検出における最近の研究を体系的に要約し,考察する。
論文 参考訳(メタデータ) (2024-08-20T08:32:39Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Learning Human-Object Interaction Detection using Interaction Points [140.0200950601552]
本研究では,人間と物体の相互作用を直接検出する新しい完全畳み込み手法を提案する。
我々のネットワークは相互作用点を予測し、その相互作用を直接ローカライズし、分類する。
V-COCOとHICO-DETの2つの人気のあるベンチマークで実験が行われる。
論文 参考訳(メタデータ) (2020-03-31T08:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。