論文の概要: Learning Multi-Attention Context Graph for Group-Based Re-Identification
- arxiv url: http://arxiv.org/abs/2104.14236v1
- Date: Thu, 29 Apr 2021 09:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 13:00:29.824311
- Title: Learning Multi-Attention Context Graph for Group-Based Re-Identification
- Title(参考訳): グループベース再同定のためのマルチアテンションコンテキストグラフの学習
- Authors: Yichao Yan, Jie Qin, Bingbing Ni, Jiaxin Chen, Li Liu, Fan Zhu,
Wei-Shi Zheng, Xiaokang Yang, Ling Shao
- Abstract要約: オーバーラップしていないカメラシステムを介して人々のグループを再識別または取得することを学ぶことは、ビデオ監視において重要なアプリケーションです。
本研究では,グループre-idというグループを識別するためのコンテキスト情報の利用を検討する。
本研究では,グループベースリドタスクを同時に処理するグラフニューラルネットワークに基づく新しい統合フレームワークを提案する。
- 参考スコア(独自算出の注目度): 214.84551361855443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to re-identify or retrieve a group of people across non-overlapped
camera systems has important applications in video surveillance. However, most
existing methods focus on (single) person re-identification (re-id), ignoring
the fact that people often walk in groups in real scenarios. In this work, we
take a step further and consider employing context information for identifying
groups of people, i.e., group re-id. We propose a novel unified framework based
on graph neural networks to simultaneously address the group-based re-id tasks,
i.e., group re-id and group-aware person re-id. Specifically, we construct a
context graph with group members as its nodes to exploit dependencies among
different people. A multi-level attention mechanism is developed to formulate
both intra-group and inter-group context, with an additional self-attention
module for robust graph-level representations by attentively aggregating
node-level features. The proposed model can be directly generalized to tackle
group-aware person re-id using node-level representations. Meanwhile, to
facilitate the deployment of deep learning models on these tasks, we build a
new group re-id dataset that contains more than 3.8K images with 1.5K annotated
groups, an order of magnitude larger than existing group re-id datasets.
Extensive experiments on the novel dataset as well as three existing datasets
clearly demonstrate the effectiveness of the proposed framework for both
group-based re-id tasks. The code is available at
https://github.com/daodaofr/group_reid.
- Abstract(参考訳): オーバーラップされていないカメラシステムにまたがって、人々のグループを再識別または検索することを学ぶことは、ビデオ監視において重要な応用である。
しかしながら、既存のほとんどのメソッドは、実際のシナリオで人々がしばしばグループで歩くという事実を無視して、個人の再識別(re-id)に焦点を当てています。
本研究では、さらに一歩進んで、人々のグループ、すなわちグループre-idを識別するためのコンテキスト情報の利用を検討する。
本稿では,グラフニューラルネットワークに基づく新しい統一フレームワークを提案し,グループベースのre-idタスク,すなわちグループre-idとグループ認識者のre-idを同時に扱う。
具体的には、グループメンバーをノードとしてコンテキストグラフを構築し、異なる人々間の依存関係を活用する。
グループ内とグループ間の両方のコンテキストを定式化するマルチレベルアテンション機構を開発し、ノードレベルの特徴を注意深く集約することにより、堅牢なグラフレベル表現のための追加の自己アテンションモジュールを開発した。
提案手法は,ノードレベルの表現を用いてグループ認識者の再帰に取り組むために直接一般化することができる。
一方、これらのタスクにディープラーニングモデルのデプロイを容易にするために、1.5Kの注釈付きグループを持つ3.8K以上の画像を含む新しいグループre-idデータセットを構築します。
新たなデータセットと既存の3つのデータセットに関する広範な実験は、グループベースのre-idタスクの両方に対する提案フレームワークの有効性を明確に示している。
コードはhttps://github.com/daodaofr/group_reidで入手できる。
関連論文リスト
- The Research of Group Re-identification from Multiple Cameras [0.4955551943523977]
グループ再識別は、従来の再識別タスクにおいて、視点や人間のポーズのバリエーションによって妨げられているだけでなく、非常に難しい。
本稿では,グループ内の多粒度情報を活用してグループ再同定を容易にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-19T18:28:13Z) - Towards More Practical Group Activity Detection: A New Benchmark and Model [61.39427407758131]
グループアクティビティ検出(グループアクティビティ検出、英: Group Activity Detection、GAD)は、ビデオにおいて、各グループのメンバを特定し、同時にグループのアクティビティを分類するタスクである。
私たちはCaf'eと呼ばれる新しいデータセットを提示し、より実用的なシナリオとメトリクスを提示します。
また、未知数のグループと潜在グループメンバーを効率的に効率的に扱う新しいGADモデルを提案する。
論文 参考訳(メタデータ) (2023-12-05T16:48:17Z) - Ranking-based Group Identification via Factorized Attention on Social
Tripartite Graph [68.08590487960475]
グループ識別のための文脈的要因認識(CFAG)という,GNNに基づく新しいフレームワークを提案する。
我々は3部グラフ畳み込み層を考案し、ユーザ、グループ、アイテム間の異なる種類の近隣からの情報を集約する。
データ疎度問題に対処するため,提案した因子化注意機構に基づく新しい伝搬増強層を考案した。
論文 参考訳(メタデータ) (2022-11-02T01:42:20Z) - AggNet: Learning to Aggregate Faces for Group Membership Verification [20.15673797674449]
いくつかの顔認識アプリケーションでは、個人がグループのメンバーであるかどうかを、そのアイデンティティを明らかにすることなく確認することに興味がある。
いくつかの既存手法では、事前計算された顔記述子を離散的な埋め込みに量子化し、それらを一つのグループ表現に集約する機構が提案されている。
本稿では,顔記述子とアグリゲーション機構を協調的に学習し,エンドツーエンドのパフォーマンスを向上させるディープアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-17T10:48:34Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Graph Neural Netwrok with Interaction Pattern for Group Recommendation [1.066048003460524]
GIP4GRモデル(グループ推薦のための相互作用パターン付きグラフニューラルネットワーク)を提案する。
具体的には,グラフのトポロジ的構造におけるグループ・ユーザ間相互作用を表現するために,強力な表現能力を持つグラフニューラルネットワークフレームワークを用いた。
2つの実世界のデータセットで多くの実験を行い、モデルの優れた性能を実証した。
論文 参考訳(メタデータ) (2021-09-21T13:42:46Z) - Double-Scale Self-Supervised Hypergraph Learning for Group
Recommendation [35.841350982832545]
グループレコメンデーションは、データスパシティの問題に深刻な問題を抱えています。
本稿では,グループ推薦のための自己教師付きハイパーグラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-09T12:19:49Z) - GroupFormer: Group Activity Recognition with Clustered Spatial-Temporal
Transformer [16.988878921451484]
GroupFormerは、個人とグループ表現を増強するために、空間的・時間的コンテキスト情報を共同でキャプチャする。
提案するフレームワークは,VolleyballデータセットとCollective Activityデータセットの最先端メソッドよりも優れている。
論文 参考訳(メタデータ) (2021-08-28T11:24:36Z) - Learning Spatial Context with Graph Neural Network for Multi-Person Pose
Grouping [71.59494156155309]
イメージベース多人数ポーズ推定のためのボトムアップ手法は,キーポイント検出とグループ化の2段階からなる。
本研究では,グラフ分割問題としてグループ化タスクを定式化し,グラフニューラルネットワーク(gnn)を用いて親和性行列を学習する。
学習された幾何学に基づく親和性は、強固なキーポイント結合を達成するために外観に基づく親和性とさらに融合する。
論文 参考訳(メタデータ) (2021-04-06T09:21:14Z) - Overcoming Data Sparsity in Group Recommendation [52.00998276970403]
グループレコメンデータシステムは、ユーザの個人的な好みだけでなく、嗜好集約戦略も正確に学習できなければならない。
本稿では,BGEM(Bipartite Graphding Model)とGCN(Graph Convolutional Networks)を基本構造として,グループとユーザ表現を統一的に学習する。
論文 参考訳(メタデータ) (2020-10-02T07:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。