論文の概要: Learning Group Activity Features Through Person Attribute Prediction
- arxiv url: http://arxiv.org/abs/2403.02753v2
- Date: Mon, 11 Mar 2024 05:15:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 13:28:28.573351
- Title: Learning Group Activity Features Through Person Attribute Prediction
- Title(参考訳): 個人属性予測によるグループ活動の学習
- Authors: Chihiro Nakatani, Hiroaki Kawashima, Norimichi Ukita
- Abstract要約: グループ活動特徴(GAF)学習を提案する。
ネットワーク全体をエンドツーエンドで学習することにより、グループ内の人々の特性をトレーニングする。
- 参考スコア(独自算出の注目度): 13.964739198311001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes Group Activity Feature (GAF) learning in which features
of multi-person activity are learned as a compact latent vector. Unlike prior
work in which the manual annotation of group activities is required for
supervised learning, our method learns the GAF through person attribute
prediction without group activity annotations. By learning the whole network in
an end-to-end manner so that the GAF is required for predicting the person
attributes of people in a group, the GAF is trained as the features of
multi-person activity. As a person attribute, we propose to use a person's
action class and appearance features because the former is easy to annotate due
to its simpleness, and the latter requires no manual annotation. In addition,
we introduce a location-guided attribute prediction to disentangle the complex
GAF for extracting the features of each target person properly. Various
experimental results validate that our method outperforms SOTA methods
quantitatively and qualitatively on two public datasets. Visualization of our
GAF also demonstrates that our method learns the GAF representing fined-grained
group activity classes. Code: https://github.com/chihina/GAFL-CVPR2024.
- Abstract(参考訳): 本稿では,多人数活動の特徴をコンパクトな潜在ベクトルとして学習するグループ活動特徴(GAF)学習を提案する。
教師付き学習にグループアクティビティの手動アノテーションを必要とする先行作業とは異なり,本手法はグループアクティビティアノテーションを使わずに個人属性予測を通じてgafを学習する。
グループ内の人の属性を予測するためにGAFが必要とされるように、ネットワーク全体をエンドツーエンドで学習することにより、GAFは多人数活動の特徴として訓練される。
人属性として,その単純さからアノテーションが容易であり,手作業によるアノテーションが不要であることから,人のアクションクラスと外観特徴を使用するように提案する。
さらに,各対象者の特徴を適切に抽出するために,複雑なGAFをアンタングルする位置誘導属性予測を導入する。
提案手法は2つの公開データセット上でSOTA法を定量的に定性的に上回ることを示す。
また,GAFの可視化により,詳細なグループ活動クラスを表すGAFを学習することを示す。
コード:https://github.com/chihina/GAFL-CVPR2024。
関連論文リスト
- Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - AdaFPP: Adapt-Focused Bi-Propagating Prototype Learning for Panoramic Activity Recognition [51.24321348668037]
パノラマ活動認識(PAR)は、パノラマシーンにおいて複数の人が行う多粒度行動を特定することを目的としている。
以前の方法は、トレーニングと推論において手動で注釈付き検出ボックスに依存しており、より実用的なデプロイメントを妨げる。
本研究では,パノラマ活動シーンにおける個人,グループ,グローバルな活動を共同で認識するための,適応型バイプロパゲーティング・プロトタイプ学習(AdaFPP)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-04T01:53:22Z) - Towards More Practical Group Activity Detection: A New Benchmark and Model [61.39427407758131]
グループアクティビティ検出(グループアクティビティ検出、英: Group Activity Detection、GAD)は、ビデオにおいて、各グループのメンバを特定し、同時にグループのアクティビティを分類するタスクである。
私たちはCaf'eと呼ばれる新しいデータセットを提示し、より実用的なシナリオとメトリクスを提示します。
また、未知数のグループと潜在グループメンバーを効率的に効率的に扱う新しいGADモデルを提案する。
論文 参考訳(メタデータ) (2023-12-05T16:48:17Z) - Attribute-Aware Representation Rectification for Generalized Zero-Shot
Learning [19.65026043141699]
一般化ゼロショット学習(GZSL)は、一連の非バイアスの視覚-セマンティックマッピングを設計することによって、顕著な性能を得た。
本稿では,GZSLに対して,$mathbf(AR)2$という簡易かつ効果的な属性認識表現フレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T11:30:32Z) - Uncovering Prototypical Knowledge for Weakly Open-Vocabulary Semantic
Segmentation [59.37587762543934]
本稿では,弱開語彙セマンティックセマンティックセグメンテーション(WOVSS)の問題点について検討する。
既存の方法は、グループトークンの使用に関する粒度の矛盾に悩まされる。
マルチモーダル正規化を組み込んだプロトタイプ誘導ネットワーク(PGSeg)を提案する。
論文 参考訳(メタデータ) (2023-10-29T13:18:00Z) - DECOMPL: Decompositional Learning with Attention Pooling for Group
Activity Recognition from a Single Volleyball Image [3.6144103736375857]
グループアクティビティ認識(GAR)は、複数のアクターがシーンで実行するアクティビティを検出することを目的としている。
本稿では,バレーボールビデオのための新しいGAR手法であるDECOMPLを提案する。
視覚枝では、アテンションプールを用いた特徴を選択的に抽出する。
座標系ではアクターの現在の構成を考慮し、ボックス座標から空間情報を抽出する。
論文 参考訳(メタデータ) (2023-03-11T16:30:51Z) - Tyger: Task-Type-Generic Active Learning for Molecular Property
Prediction [121.97742787439546]
分子の性質を正確に予測する方法は、AIによる薬物発見において重要な問題である。
アノテーションのコストを削減するため,注釈付けのための最も代表的で情報性の高いデータのみを選択するために,深層能動学習法が開発された。
本稿では,異なるタイプの学習タスクを統一的に処理できるタスク型汎用能動的学習フレームワーク(Tyger)を提案する。
論文 参考訳(メタデータ) (2022-05-23T12:56:12Z) - Pose is all you need: The pose only group activity recognition system
(POGARS) [7.876115370275732]
本稿では,Pose Only Group Activity Recognition System(POGARS)という,ディープラーニングに基づくグループアクティビティ認識手法を提案する。
POGARSは1D CNNを使用して、グループ活動に関わる個人のダイナミクスを学習し、ピクセルデータから学習を強制する。
実験結果から,POGARSは,広く使用されているバレーボールデータセットの最先端手法と比較して,高い競争力を発揮することが確認された。
論文 参考訳(メタデータ) (2021-08-09T17:16:04Z) - GAN for Vision, KG for Relation: a Two-stage Deep Network for Zero-shot
Action Recognition [33.23662792742078]
ゼロショット動作認識のための2段階のディープニューラルネットワークを提案する。
サンプリング段階では,授業の動作特徴と単語ベクトルによって訓練されたGAN(Generative Adversarial Network)を利用する。
分類段階において、アクションクラスの単語ベクトルと関連するオブジェクトの関係に基づいて知識グラフを構築する。
論文 参考訳(メタデータ) (2021-05-25T09:34:42Z) - Adaptive Prototypical Networks with Label Words and Joint Representation
Learning for Few-Shot Relation Classification [17.237331828747006]
本研究は,少ショット関係分類(FSRC)に焦点を当てる。
クラスプロトタイプの表現にラベル単語を追加するための適応的混合機構を提案する。
FewRelでは、異なる数ショット(FS)設定で実験が行われた。
論文 参考訳(メタデータ) (2021-01-10T11:25:42Z) - SCAN: Learning to Classify Images without Labels [73.69513783788622]
機能学習とクラスタリングを分離する2段階のアプローチを提唱する。
表現学習からの自己教師型タスクを用いて意味論的意味のある特徴を得る。
我々は、ImageNet上で有望な結果を得、低データ体制下では、いくつかの半教師付き学習方法より優れています。
論文 参考訳(メタデータ) (2020-05-25T18:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。