論文の概要: GroupFormer: Group Activity Recognition with Clustered Spatial-Temporal
Transformer
- arxiv url: http://arxiv.org/abs/2108.12630v1
- Date: Sat, 28 Aug 2021 11:24:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:42:38.438616
- Title: GroupFormer: Group Activity Recognition with Clustered Spatial-Temporal
Transformer
- Title(参考訳): groupformer:クラスタ型空間時空間トランスフォーマによるグループアクティビティ認識
- Authors: Shuaicheng Li, Qianggang Cao, Lingbo Liu, Kunlin Yang, Shinan Liu, Jun
Hou and Shuai Yi
- Abstract要約: GroupFormerは、個人とグループ表現を増強するために、空間的・時間的コンテキスト情報を共同でキャプチャする。
提案するフレームワークは,VolleyballデータセットとCollective Activityデータセットの最先端メソッドよりも優れている。
- 参考スコア(独自算出の注目度): 16.988878921451484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group activity recognition is a crucial yet challenging problem, whose core
lies in fully exploring spatial-temporal interactions among individuals and
generating reasonable group representations. However, previous methods either
model spatial and temporal information separately, or directly aggregate
individual features to form group features. To address these issues, we propose
a novel group activity recognition network termed GroupFormer. It captures
spatial-temporal contextual information jointly to augment the individual and
group representations effectively with a clustered spatial-temporal
transformer. Specifically, our GroupFormer has three appealing advantages: (1)
A tailor-modified Transformer, Clustered Spatial-Temporal Transformer, is
proposed to enhance the individual representation and group representation. (2)
It models the spatial and temporal dependencies integrally and utilizes
decoders to build the bridge between the spatial and temporal information. (3)
A clustered attention mechanism is utilized to dynamically divide individuals
into multiple clusters for better learning activity-aware semantic
representations. Moreover, experimental results show that the proposed
framework outperforms state-of-the-art methods on the Volleyball dataset and
Collective Activity dataset. Code is available at
https://github.com/xueyee/GroupFormer.
- Abstract(参考訳): グループ活動認識は、個人間の空間的時間的相互作用を完全に探索し、合理的なグループ表現を生成することが中心となる重要な問題である。
しかし、従来の手法では、空間的情報と時間的情報を別々にモデル化するか、個別の特徴を直接集約してグループの特徴を形成する。
そこで本稿では,グループ活動認識ネットワークであるgroupformerを提案する。
個人とグループ表現をクラスタ化された時空間変換器で効果的に増強する。
具体的には, グループフォーマーには3つの利点がある: 1) 個別表現とグループ表現を強化するために, クラスタ化された空間時間変換器, テーラー修飾変換器を提案する。
2)空間的・時間的依存関係を総合的にモデル化し,デコーダを用いて空間的・時間的情報間の橋渡しを行う。
3) クラスタ化された注意機構を用いて個人を複数のクラスタに動的に分割し,アクティビティを意識したセマンティック表現を学習する。
さらに, バレーボールデータセットと集団活動データセットにおいて, 提案フレームワークが最先端手法よりも優れていることを示した。
コードはhttps://github.com/xueyee/groupformerで入手できる。
関連論文リスト
- Redefining Event Types and Group Evolution in Temporal Data [0.16385815610837165]
時間的データにおいて、集団進化を特徴づける主要なアプローチは、出来事の特定を通じてである」。
我々は事象をアーチェタイプとして考える」とは、我々がファセット・エクセレミティ(facet extremities)と呼ぶ定量的次元のユニークな組み合わせによって特徴づけられる。
本フレームワークは,複数の対面インタラクションデータセットからグループを進化させ,よりリッチで信頼性の高いグループダイナミクスのキャラクタリゼーションを可能にする。
論文 参考訳(メタデータ) (2024-03-11T14:39:24Z) - Towards Efficient and Effective Deep Clustering with Dynamic Grouping
and Prototype Aggregation [4.550555443103878]
本稿ではDigProと呼ばれる動的グループ化とプロトタイプアグリゲーションを備えた新しいエンドツーエンドのディープクラスタリングフレームワークを提案する。
具体的には、動的グルーピングがインスタンスレベルからグループレベルへのコントラスト学習を拡張し、グループをタイムリーに更新するのに効率的かつ効率的である。
期待最大化フレームワークにより、DigProはクラスタ内接続のコンパクトな接続、よく分離されたクラスタ、そしてセルフ教師付きトレーニング中の効率的なグループ更新を同時に活用する。
論文 参考訳(メタデータ) (2024-01-24T16:45:42Z) - Unified Multi-View Orthonormal Non-Negative Graph Based Clustering
Framework [74.25493157757943]
我々は,非負の特徴特性を活用し,多視点情報を統合された共同学習フレームワークに組み込む,新しいクラスタリングモデルを定式化する。
また、深層機能に基づいたクラスタリングデータに対するマルチモデル非負グラフベースのアプローチを初めて検討する。
論文 参考訳(メタデータ) (2022-11-03T08:18:27Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Observing a group to infer individual characteristics [1.0152838128195465]
本研究では, 現地住民がエージェントの動きをどう支援するか, あるいは妨げるかを, 観測した動き情報のみに基づいて推定する新しいオブザーバアルゴリズムを提案する。
従来の教師付き学習アプローチとは異なり、このアルゴリズムは物理的な洞察とスケーリング引数に基づいており、トレーニングデータに依存しない。
このようなデータに依存しないアプローチは、クリーンでラベル付けされたデータが入手が困難な現実世界の多くの問題と関連している。
論文 参考訳(メタデータ) (2021-10-12T09:59:54Z) - Learning Multi-Attention Context Graph for Group-Based Re-Identification [214.84551361855443]
オーバーラップしていないカメラシステムを介して人々のグループを再識別または取得することを学ぶことは、ビデオ監視において重要なアプリケーションです。
本研究では,グループre-idというグループを識別するためのコンテキスト情報の利用を検討する。
本研究では,グループベースリドタスクを同時に処理するグラフニューラルネットワークに基づく新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T09:57:47Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - From Time Series to Euclidean Spaces: On Spatial Transformations for
Temporal Clustering [5.220940151628734]
従来のクラスタリング手法,時系列特異性,あるいは深層学習に基づく代替手法は,入力データに様々なサンプリングレートと高次元性が存在する場合によく一般化しないことを示す。
本稿では,入力時系列を距離ベース投影表現に変換する時間クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T09:08:16Z) - Overcoming Data Sparsity in Group Recommendation [52.00998276970403]
グループレコメンデータシステムは、ユーザの個人的な好みだけでなく、嗜好集約戦略も正確に学習できなければならない。
本稿では,BGEM(Bipartite Graphding Model)とGCN(Graph Convolutional Networks)を基本構造として,グループとユーザ表現を統一的に学習する。
論文 参考訳(メタデータ) (2020-10-02T07:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。