論文の概要: Pose is all you need: The pose only group activity recognition system
(POGARS)
- arxiv url: http://arxiv.org/abs/2108.04186v1
- Date: Mon, 9 Aug 2021 17:16:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:15:08.457248
- Title: Pose is all you need: The pose only group activity recognition system
(POGARS)
- Title(参考訳): ポーズは必要なすべてだ - ポーズのみのグループアクティビティ認識システム(pogars)
- Authors: Haritha Thilakarathne, Aiden Nibali, Zhen He, Stuart Morgan
- Abstract要約: 本稿では,Pose Only Group Activity Recognition System(POGARS)という,ディープラーニングに基づくグループアクティビティ認識手法を提案する。
POGARSは1D CNNを使用して、グループ活動に関わる個人のダイナミクスを学習し、ピクセルデータから学習を強制する。
実験結果から,POGARSは,広く使用されているバレーボールデータセットの最先端手法と比較して,高い競争力を発揮することが確認された。
- 参考スコア(独自算出の注目度): 7.876115370275732
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce a novel deep learning based group activity recognition approach
called the Pose Only Group Activity Recognition System (POGARS), designed to
use only tracked poses of people to predict the performed group activity. In
contrast to existing approaches for group activity recognition, POGARS uses 1D
CNNs to learn spatiotemporal dynamics of individuals involved in a group
activity and forgo learning features from pixel data. The proposed model uses a
spatial and temporal attention mechanism to infer person-wise importance and
multi-task learning for simultaneously performing group and individual action
classification. Experimental results confirm that POGARS achieves highly
competitive results compared to state-of-the-art methods on a widely used
public volleyball dataset despite only using tracked pose as input. Further our
experiments show by using pose only as input, POGARS has better generalization
capabilities compared to methods that use RGB as input.
- Abstract(参考訳): 本稿では,グループ活動の予測に人々の追跡されたポーズのみを使用することを目的として,Pose Only Group Activity Recognition System (POGARS) と呼ばれる,ディープラーニングに基づくグループ活動認識手法を提案する。
グループアクティビティ認識の既存のアプローチとは対照的に、pogarsは1d cnnを使用してグループアクティビティに関わる個人の時空間ダイナミクスを学び、ピクセルデータから学習機能を禁ずる。
提案モデルは,個人行動分類と集団行動分類を同時に行うために,個人的重要度を推定する空間的・時間的注意機構とマルチタスク学習を用いる。
実験の結果,POGARSは,追跡されたポーズのみを入力として用いながら,広く使用されているバレーボールデータセットの最先端手法と比較して高い競争力を発揮することを確認した。
さらに,本実験では,ポーズを入力としてのみ用いることにより,RGBを入力として使用する手法と比較して,POGARSの一般化性が向上した。
関連論文リスト
- Skeleton-based Group Activity Recognition via Spatial-Temporal Panoramic Graph [4.075741925017479]
グループアクティビティ認識は、ビデオから集合的なアクティビティを理解することを目的としている。
既存のソリューションはRGBのモダリティに依存しており、背景の変化のような課題に直面している。
パノラマグラフを設計し、複数の人物の骨格や物体を包含してグループ活動をカプセル化する。
論文 参考訳(メタデータ) (2024-07-28T13:57:03Z) - AdaFPP: Adapt-Focused Bi-Propagating Prototype Learning for Panoramic Activity Recognition [51.24321348668037]
パノラマ活動認識(PAR)は、パノラマシーンにおいて複数の人が行う多粒度行動を特定することを目的としている。
以前の方法は、トレーニングと推論において手動で注釈付き検出ボックスに依存しており、より実用的なデプロイメントを妨げる。
本研究では,パノラマ活動シーンにおける個人,グループ,グローバルな活動を共同で認識するための,適応型バイプロパゲーティング・プロトタイプ学習(AdaFPP)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-04T01:53:22Z) - Learning Group Activity Features Through Person Attribute Prediction [13.964739198311001]
グループ活動特徴(GAF)学習を提案する。
ネットワーク全体をエンドツーエンドで学習することにより、グループ内の人々の特性をトレーニングする。
論文 参考訳(メタデータ) (2024-03-05T08:19:44Z) - Group Activity Recognition using Unreliable Tracked Pose [8.592249538742527]
ビデオにおけるグループ活動認識は、ビデオ内のすべての個人の行動を認識するモデルが必要であるため、複雑なタスクである。
我々は、Rendered Pose based Group Activity Recognition System (RePGARS)と呼ばれる革新的な深層学習に基づくグループアクティビティ認識手法を導入する。
論文 参考訳(メタデータ) (2024-01-06T17:36:13Z) - Towards More Practical Group Activity Detection: A New Benchmark and Model [61.39427407758131]
グループアクティビティ検出(グループアクティビティ検出、英: Group Activity Detection、GAD)は、ビデオにおいて、各グループのメンバを特定し、同時にグループのアクティビティを分類するタスクである。
私たちはCaf'eと呼ばれる新しいデータセットを提示し、より実用的なシナリオとメトリクスを提示します。
また、未知数のグループと潜在グループメンバーを効率的に効率的に扱う新しいGADモデルを提案する。
論文 参考訳(メタデータ) (2023-12-05T16:48:17Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - SoGAR: Self-supervised Spatiotemporal Attention-based Social Group Activity Recognition [45.419756454791674]
本稿では,自己教師型トランスフォーマーを用いた社会グループ活動(SoGAR)の新たなアプローチを提案する。
我々の目的は、対照的な視点から抽出された特徴が、自己時間領域間で一貫していることを保証する。
提案手法は, 3つのグループアクティビティ認識ベンチマークにおいて, 最先端の結果を得た。
論文 参考訳(メタデータ) (2023-04-27T03:41:15Z) - DECOMPL: Decompositional Learning with Attention Pooling for Group
Activity Recognition from a Single Volleyball Image [3.6144103736375857]
グループアクティビティ認識(GAR)は、複数のアクターがシーンで実行するアクティビティを検出することを目的としている。
本稿では,バレーボールビデオのための新しいGAR手法であるDECOMPLを提案する。
視覚枝では、アテンションプールを用いた特徴を選択的に抽出する。
座標系ではアクターの現在の構成を考慮し、ボックス座標から空間情報を抽出する。
論文 参考訳(メタデータ) (2023-03-11T16:30:51Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。