論文の概要: Joint Learning of Social Groups, Individuals Action and Sub-group
Activities in Videos
- arxiv url: http://arxiv.org/abs/2007.02632v2
- Date: Tue, 28 Jul 2020 00:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:46:01.204397
- Title: Joint Learning of Social Groups, Individuals Action and Sub-group
Activities in Videos
- Title(参考訳): ビデオにおけるソーシャルグループ, 個人行動, サブグループの共同学習
- Authors: Mahsa Ehsanpour, Alireza Abedin, Fatemeh Saleh, Javen Shi, Ian Reid,
Hamid Rezatofighi
- Abstract要約: ソーシャルタスクのためのエンドツーエンドのトレーニング可能なフレームワークを提案する。
提案手法は,従来のグループ認識活動タスクに広く採用されている2つのベンチマークに,最先端の成果をセットする。
- 参考スコア(独自算出の注目度): 23.15064911470468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The state-of-the art solutions for human activity understanding from a video
stream formulate the task as a spatio-temporal problem which requires joint
localization of all individuals in the scene and classification of their
actions or group activity over time. Who is interacting with whom, e.g. not
everyone in a queue is interacting with each other, is often not predicted.
There are scenarios where people are best to be split into sub-groups, which we
call social groups, and each social group may be engaged in a different social
activity. In this paper, we solve the problem of simultaneously grouping people
by their social interactions, predicting their individual actions and the
social activity of each social group, which we call the social task. Our main
contributions are: i) we propose an end-to-end trainable framework for the
social task; ii) our proposed method also sets the state-of-the-art results on
two widely adopted benchmarks for the traditional group activity recognition
task (assuming individuals of the scene form a single group and predicting a
single group activity label for the scene); iii) we introduce new annotations
on an existing group activity dataset, re-purposing it for the social task.
- Abstract(参考訳): 映像ストリームからの人間の活動理解のための最先端のソリューションは、タスクを時空間の問題として定式化し、シーン内のすべての個人を共同でローカライズし、時間とともに行動やグループ活動の分類を必要とする。
誰が誰と対話しているのか、例えば、キュー内の全員が互いに対話しているとは限らないが、予測されないことが多い。
人々が社会グループと呼ばれるサブグループに分割するのが最善のシナリオであり、それぞれの社会グループは異なる社会活動に従事している可能性がある。
本稿では,その社会的相互作用によって同時に人々をグループ化することの課題を解決し,それぞれの社会的活動と社会集団の社会的活動を予測する。
私たちの主な貢献は
一 ソーシャルタスクのためのエンドツーエンドのトレーニング可能なフレームワークを提案する。
二 提案手法は、従来のグループ活動認識タスクにおいて広く採用されている2つのベンチマーク(シーンの個人が一つのグループを形成し、シーンの単一のグループ活動ラベルを予測することを想定して)に最新の結果を設定する。
iii) 既存のグループアクティビティデータセットに新しいアノテーションを導入し,ソーシャルタスクのために再提案する。
関連論文リスト
- Design and Analysis of Efficient Attention in Transformers for Social Group Activity Recognition [3.75292409381511]
本稿では,変圧器のアテンションモジュールを利用してソーシャルグループ機能を生成することを提案する。
複数の埋め込みは、ソーシャルグループの特徴を集約するために使用され、それぞれが重複せずにグループメンバーに割り当てられる。
提案手法は最先端の性能を達成し,提案手法が社会集団の行動認識に極めて有効であることを検証した。
論文 参考訳(メタデータ) (2024-04-15T17:40:23Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - SOTOPIA: Interactive Evaluation for Social Intelligence in Language Agents [107.4138224020773]
人工エージェントと人間との複雑な社会的相互作用をシミュレートするオープンエンド環境であるSOTOPIAを提案する。
エージェントは、複雑な社会的目標を達成するために協調し、協力し、交換し、互いに競い合う。
GPT-4は,人間よりも目標達成率が著しく低く,社会的常識的推論や戦略的コミュニケーション能力の発揮に苦慮していることがわかった。
論文 参考訳(メタデータ) (2023-10-18T02:27:01Z) - Group Activity Recognition in Computer Vision: A Comprehensive Review,
Challenges, and Future Perspectives [0.0]
グループ活動認識はコンピュータビジョンにおけるホットトピックである。
グループ関係を通じた活動の認識はグループ活動認識において重要な役割を担っている。
本研究は,グループ活動の認識における技術進歩について考察する。
論文 参考訳(メタデータ) (2023-07-25T14:44:41Z) - Adaptive Coordination in Social Embodied Rearrangement [49.35582108902819]
本研究では,エージェントが新しいパートナーと協力し,ロボットが新しいパートナーと協力するシナリオをエミュレートする作業において,ゼロショットコーディネート(ZSC)を研究する。
本稿では,識別可能性の目的を通じて多様性を促進する新しいZSCアプローチである行動多様性プレイ(BDP)を提案する。
以上の結果から,BDPは視覚的コーディネーションに対処可能な適応エージェントを学習し,ゼロショットは未確認環境において新たなパートナーに一般化し,ベースラインに比べて35%,効率が32%向上した。
論文 参考訳(メタデータ) (2023-05-31T18:05:51Z) - Hunting Group Clues with Transformers for Social Group Activity
Recognition [3.1061678033205635]
社会的グループ活動認識には、複数のサブグループ活動を認識し、グループメンバーを特定する必要がある。
既存のほとんどのメソッドは、リージョンの機能を精錬し、それらをアクティビティのフィーチャにまとめることで、両方のタスクに取り組みます。
我々は,効果的なソーシャルグループ機能を生成するために,トランスフォーマーのアテンションモジュールを活用することを提案する。
本手法は,アテンションモジュールが社会的グループ活動に関連する特徴を識別し,集約するように設計されている。
論文 参考訳(メタデータ) (2022-07-12T01:46:46Z) - Self-supervised Social Relation Representation for Human Group Detection [18.38523753680367]
人間のグループ検出のための新しい2段階のマルチヘッドフレームワークを提案する。
第1段階では,人間行動シミュレーター・ヘッドを提案し,ソーシャル・リレーション・フィーチャの埋め込みを学習する。
第2段階では,社会関係の埋め込みに基づいて,人間集団検出のための自己注意型ネットワークを開発する。
論文 参考訳(メタデータ) (2022-03-08T04:26:07Z) - Detecting socially interacting groups using f-formation: A survey of
taxonomy, methods, datasets, applications, challenges, and future research
directions [3.995408039775796]
社会的行動は、ロボットが持つことのできる最も追求された性質の1つである。
このような品質を持つためには、ロボットがグループの形成を判断し、自らの位置を決定する必要がある。
この問題に関連するすべての懸念とモジュールを組み合わせた,新たな総合的な調査フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-13T11:51:17Z) - JRDB-Act: A Large-scale Multi-modal Dataset for Spatio-temporal Action,
Social Group and Activity Detection [54.696819174421584]
大学構内環境における生活行動の実際の分布を反映したマルチモーダルデータセットであるJRDB-Actを紹介する。
JRDB-Actには280万以上のアクションラベルがある。
JRDB-Actは、現場での対話に基づいて個人をグループ化するタスクに着想を得た社会集団識別アノテーションが付属している。
論文 参考訳(メタデータ) (2021-06-16T14:43:46Z) - Learning Multi-Attention Context Graph for Group-Based Re-Identification [214.84551361855443]
オーバーラップしていないカメラシステムを介して人々のグループを再識別または取得することを学ぶことは、ビデオ監視において重要なアプリケーションです。
本研究では,グループre-idというグループを識別するためのコンテキスト情報の利用を検討する。
本研究では,グループベースリドタスクを同時に処理するグラフニューラルネットワークに基づく新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T09:57:47Z) - PHASE: PHysically-grounded Abstract Social Events for Machine Social
Perception [50.551003004553806]
私たちは、物理的に根拠のある抽象的なソーシャルイベント、フェーズのデータセットを作成します。
フェーズは人間の実験によって検証され、人間は社会出来事において豊かな相互作用を知覚する。
ベースラインモデルとして,最新のフィードフォワードニューラルネットワークよりも優れたベイズ逆計画手法SIMPLEを導入する。
論文 参考訳(メタデータ) (2021-03-02T18:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。