論文の概要: Beyond the Individual: Introducing Group Intention Forecasting with SHOT Dataset
- arxiv url: http://arxiv.org/abs/2509.20715v3
- Date: Wed, 01 Oct 2025 12:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-02 14:33:21.781465
- Title: Beyond the Individual: Introducing Group Intention Forecasting with SHOT Dataset
- Title(参考訳): 個人を超えて:SHOTデータセットによるグループ意図予測の導入
- Authors: Ruixu Zhang, Yuran Wang, Xinyi Hu, Chaoyu Mai, Wenxuan Liu, Danni Xu, Xian Zhong, Zheng Wang,
- Abstract要約: グループ意図は、複数の個人の行動を通じて現れる共通の目標を表す。
グループ意図予測(Group Intention Forecasting, GIF)は、集団意図がいつ起こるかを予測する新しいタスクである。
SHOTはGIF用の最初の大規模なデータセットで、5つのカメラビューから撮影された1,979本のバスケットボールビデオクリップで構成されている。
GIFTは、意図の出現を予測するためにグループダイナミクスを進化させる、きめ細かい個々の特徴とモデルを抽出するフレームワークである。
- 参考スコア(独自算出の注目度): 32.9983492637077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Intention recognition has traditionally focused on individual intentions, overlooking the complexities of collective intentions in group settings. To address this limitation, we introduce the concept of group intention, which represents shared goals emerging through the actions of multiple individuals, and Group Intention Forecasting (GIF), a novel task that forecasts when group intentions will occur by analyzing individual actions and interactions before the collective goal becomes apparent. To investigate GIF in a specific scenario, we propose SHOT, the first large-scale dataset for GIF, consisting of 1,979 basketball video clips captured from 5 camera views and annotated with 6 types of individual attributes. SHOT is designed with 3 key characteristics: multi-individual information, multi-view adaptability, and multi-level intention, making it well-suited for studying emerging group intentions. Furthermore, we introduce GIFT (Group Intention ForecasTer), a framework that extracts fine-grained individual features and models evolving group dynamics to forecast intention emergence. Experimental results confirm the effectiveness of SHOT and GIFT, establishing a strong foundation for future research in group intention forecasting. The dataset is available at https://xinyi-hu.github.io/SHOT_DATASET.
- Abstract(参考訳): 意図認識は伝統的に、集団設定における集団的意図の複雑さを見越して、個人の意図に焦点を合わせてきた。
この制限に対処するために、複数の個人の行動を通して生じる共有目標を表すグループ意図(group intention)の概念と、集団目標が明らかになる前に集団意図がいつ起こるかを予測する新しいタスクであるグループ意図予測(Group Intention Forecasting, GIF)を導入する。
特定のシナリオでGIFを調べるために,5つのカメラビューから1,979本のバスケットボールビデオクリップをキャプチャし,6種類の属性で注釈付けした,GIFのための最初の大規模データセットであるSHOTを提案する。
SHOTは、多視点情報、多視点適応性、多段階意図の3つの主要な特徴をもって設計されており、新興グループの意図を研究するのに適している。
さらに,GIFT(Group Intention ForecasTer)を導入し,詳細な個々の特徴を抽出し,グループダイナミクスを進化させ,意図の出現を予測する。
実験によりSHOTとGIFTの有効性が確認され,グループ意図予測における今後の研究の強力な基盤が確立された。
データセットはhttps://xinyi-hu.github.io/SHOT_DATASETで公開されている。
関連論文リスト
- Prompt-Guided Relational Reasoning for Social Behavior Understanding with Vision Foundation Models [8.36651942320007]
グループアクティビティ検出(GAD)は、ビデオ内での社会的グループとその集団行動を認識することを含む。
Vision Foundation Models(VFM)はDinoV2と同様、優れた機能を提供するが、主にオブジェクト中心のデータに基づいて事前訓練されている。
本稿では,Pmpt-driven Group Activity Detection (ProGraD)を導入し,そのギャップを1つに埋める手法を提案する。
論文 参考訳(メタデータ) (2025-08-11T13:59:22Z) - Towards More Practical Group Activity Detection: A New Benchmark and Model [61.39427407758131]
グループアクティビティ検出(グループアクティビティ検出、英: Group Activity Detection、GAD)は、ビデオにおいて、各グループのメンバを特定し、同時にグループのアクティビティを分類するタスクである。
私たちはCaf'eと呼ばれる新しいデータセットを提示し、より実用的なシナリオとメトリクスを提示します。
また、未知数のグループと潜在グループメンバーを効率的に効率的に扱う新しいGADモデルを提案する。
論文 参考訳(メタデータ) (2023-12-05T16:48:17Z) - Learning Pedestrian Group Representations for Multi-modal Trajectory
Prediction [16.676008193894223]
GP-Graphは、混雑した環境下での効果的な歩行者軌道予測のための集団表現を持つ。
GP-Graphのキーとなる考え方は、グラフ表現として個人関係とグループ関係の両方をモデル化することである。
本稿では,複数の歩行者からなるグループを1つのグラフノードとして表現するグループプーリング・アンプール操作を提案する。
論文 参考訳(メタデータ) (2022-07-20T14:58:13Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Graph Neural Netwrok with Interaction Pattern for Group Recommendation [1.066048003460524]
GIP4GRモデル(グループ推薦のための相互作用パターン付きグラフニューラルネットワーク)を提案する。
具体的には,グラフのトポロジ的構造におけるグループ・ユーザ間相互作用を表現するために,強力な表現能力を持つグラフニューラルネットワークフレームワークを用いた。
2つの実世界のデータセットで多くの実験を行い、モデルの優れた性能を実証した。
論文 参考訳(メタデータ) (2021-09-21T13:42:46Z) - Learning Multi-Attention Context Graph for Group-Based Re-Identification [214.84551361855443]
オーバーラップしていないカメラシステムを介して人々のグループを再識別または取得することを学ぶことは、ビデオ監視において重要なアプリケーションです。
本研究では,グループre-idというグループを識別するためのコンテキスト情報の利用を検討する。
本研究では,グループベースリドタスクを同時に処理するグラフニューラルネットワークに基づく新しい統合フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-29T09:57:47Z) - CoADNet: Collaborative Aggregation-and-Distribution Networks for
Co-Salient Object Detection [91.91911418421086]
Co-Salient Object Detection (CoSOD)は、2つ以上の関連する画像を含む所定のクエリグループに繰り返し現れる健全なオブジェクトを発見することを目的としている。
課題の1つは、画像間の関係をモデリングし、活用することによって、コ・サリヤ・キューを効果的にキャプチャする方法である。
我々は,複数画像から有能かつ反復的な視覚パターンを捉えるために,エンドツーエンドの協調集約配信ネットワーク(CoADNet)を提案する。
論文 参考訳(メタデータ) (2020-11-10T04:28:11Z) - Overcoming Data Sparsity in Group Recommendation [52.00998276970403]
グループレコメンデータシステムは、ユーザの個人的な好みだけでなく、嗜好集約戦略も正確に学習できなければならない。
本稿では,BGEM(Bipartite Graphding Model)とGCN(Graph Convolutional Networks)を基本構造として,グループとユーザ表現を統一的に学習する。
論文 参考訳(メタデータ) (2020-10-02T07:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。