論文の概要: Group Activity Recognition using Unreliable Tracked Pose
- arxiv url: http://arxiv.org/abs/2401.03262v1
- Date: Sat, 6 Jan 2024 17:36:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 19:39:07.071016
- Title: Group Activity Recognition using Unreliable Tracked Pose
- Title(参考訳): 不信頼な追跡ポーズを用いた集団活動認識
- Authors: Haritha Thilakarathne, Aiden Nibali, Zhen He, Stuart Morgan
- Abstract要約: ビデオにおけるグループ活動認識は、ビデオ内のすべての個人の行動を認識するモデルが必要であるため、複雑なタスクである。
我々は、Rendered Pose based Group Activity Recognition System (RePGARS)と呼ばれる革新的な深層学習に基づくグループアクティビティ認識手法を導入する。
- 参考スコア(独自算出の注目度): 8.592249538742527
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Group activity recognition in video is a complex task due to the need for a
model to recognise the actions of all individuals in the video and their
complex interactions. Recent studies propose that optimal performance is
achieved by individually tracking each person and subsequently inputting the
sequence of poses or cropped images/optical flow into a model. This helps the
model to recognise what actions each person is performing before they are
merged to arrive at the group action class. However, all previous models are
highly reliant on high quality tracking and have only been evaluated using
ground truth tracking information. In practice it is almost impossible to
achieve highly reliable tracking information for all individuals in a group
activity video. We introduce an innovative deep learning-based group activity
recognition approach called Rendered Pose based Group Activity Recognition
System (RePGARS) which is designed to be tolerant of unreliable tracking and
pose information. Experimental results confirm that RePGARS outperforms all
existing group activity recognition algorithms tested which do not use ground
truth detection and tracking information.
- Abstract(参考訳): ビデオにおけるグループアクティビティ認識は、ビデオ内のすべての個人のアクションとその複雑なインタラクションを認識するモデルが必要であるため、複雑なタスクである。
近年の研究では、個々の人物を個別に追跡し、次にポーズや切り抜いた画像やオプティカルフローのシーケンスをモデルに入力することで、最適なパフォーマンスを実現することが提案されている。
これにより、モデルが、グループアクションクラスにマージされる前に、各人が実行しているアクションを認識するのに役立つ。
しかし,従来のモデルはすべて高品質な追跡に強く依存しており,地上の真実追跡情報を用いてのみ評価されている。
実際には、グループアクティビティビデオのすべての個人に対して、信頼性の高い追跡情報を達成することはほとんど不可能である。
我々は、信頼できない追跡や情報ポーズに寛容なグループアクティビティ認識システム(RePGARS)という、革新的なディープラーニングに基づくグループアクティビティ認識手法を導入する。
実験の結果、RePGARSは、地上の真実検出や追跡情報を使用しない既存のグループ活動認識アルゴリズムよりも優れていることを確認した。
関連論文リスト
- Automatic Identification and Visualization of Group Training Activities Using Wearable Data [7.130450173185638]
Human Activity Recognition (HAR)は、スマートウォッチのようなウェアラブルデバイスによって収集された時系列データから日々のアクティビティを特定する。
本稿では,ウェアラブルデータからアクティビティを計算,分析,識別するための包括的枠組みを提案する。
当社のアプローチは、Garmin 55スマートウォッチを6ヶ月にわたって装着した135人の兵士から収集されたデータに基づいています。
論文 参考訳(メタデータ) (2024-10-07T19:35:15Z) - Towards More Practical Group Activity Detection: A New Benchmark and Model [61.39427407758131]
グループアクティビティ検出(グループアクティビティ検出、英: Group Activity Detection、GAD)は、ビデオにおいて、各グループのメンバを特定し、同時にグループのアクティビティを分類するタスクである。
私たちはCaf'eと呼ばれる新しいデータセットを提示し、より実用的なシナリオとメトリクスを提示します。
また、未知数のグループと潜在グループメンバーを効率的に効率的に扱う新しいGADモデルを提案する。
論文 参考訳(メタデータ) (2023-12-05T16:48:17Z) - Single-Shot and Multi-Shot Feature Learning for Multi-Object Tracking [55.13878429987136]
そこで本研究では,異なる目標に対して,単発と複数発の特徴を共同で学習するための,シンプルで効果的な2段階特徴学習パラダイムを提案する。
提案手法は,DanceTrackデータセットの最先端性能を達成しつつ,MOT17およびMOT20データセットの大幅な改善を実現している。
論文 参考訳(メタデータ) (2023-11-17T08:17:49Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Detector-Free Weakly Supervised Group Activity Recognition [41.344689949264335]
グループアクティビティ認識(グループアクティビティ認識)とは、ビデオの中で、グループ全体で行われるアクティビティを理解するタスクである。
本稿では,ボックスラベルにもオブジェクト検出にも依存しない,グループ活動認識のための新しいモデルを提案する。
トランスフォーマーに基づくモデルでは,アテンション機構を利用してグループアクティビティの部分的コンテキストをローカライズし,エンコードする。
論文 参考訳(メタデータ) (2022-04-05T12:05:04Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Pose is all you need: The pose only group activity recognition system
(POGARS) [7.876115370275732]
本稿では,Pose Only Group Activity Recognition System(POGARS)という,ディープラーニングに基づくグループアクティビティ認識手法を提案する。
POGARSは1D CNNを使用して、グループ活動に関わる個人のダイナミクスを学習し、ピクセルデータから学習を強制する。
実験結果から,POGARSは,広く使用されているバレーボールデータセットの最先端手法と比較して,高い競争力を発揮することが確認された。
論文 参考訳(メタデータ) (2021-08-09T17:16:04Z) - Learning Group Activities from Skeletons without Individual Action
Labels [32.60526967706986]
我々は,骨格データのみを用いて,グループ活動ラベルのみをシーケンスレベルで使用して,最先端の最先端システムを訓練できることを示す。
実験の結果,個別の行動監督なしに訓練したモデルの性能は低かった。
慎重に設計されたリーンポーズのみのアーキテクチャは、自己監督型であっても、より複雑なマルチモーダルアプローチに比べて高い競合性を示している。
論文 参考訳(メタデータ) (2021-05-14T10:31:32Z) - Learning View-Disentangled Human Pose Representation by Contrastive
Cross-View Mutual Information Maximization [33.36330493757669]
本研究では2次元人間のポーズから、ポーズ依存とビュー依存因子を分離する新しい表現学習手法を提案する。
異なる視点から実行された同じポーズの相互情報を最大化する相互情報(CV-MIM)を用いてネットワークを訓練する。
CV-MIMは、シングルショットのクロスビュー設定において、競合する他の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2020-12-02T18:55:35Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。