論文の概要: Most Important Person-guided Dual-branch Cross-Patch Attention for Group
Affect Recognition
- arxiv url: http://arxiv.org/abs/2212.07055v2
- Date: Mon, 16 Oct 2023 23:27:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 22:50:06.455628
- Title: Most Important Person-guided Dual-branch Cross-Patch Attention for Group
Affect Recognition
- Title(参考訳): グループ感情認識のための最重要人物誘導型デュアルブランチクロスパッチ注意
- Authors: Hongxia Xie, Ming-Xian Lee, Tzu-Jui Chen, Hung-Jen Chen, Hou-I Liu,
Hong-Han Shuai, Wen-Huang Cheng
- Abstract要約: グループ・エフェクト(Group affect)とは、グループ内の外部刺激によって誘発される主観的な感情を指す。
最重要人物(MIP)の心理的概念を取り入れた解決法を提案する。
本稿では,グローバルイメージとMIPを併用したDual-branch Cross-Patch Attention Transformer(DCAT)を提案する。
- 参考スコア(独自算出の注目度): 28.30607307004348
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Group affect refers to the subjective emotion that is evoked by an external
stimulus in a group, which is an important factor that shapes group behavior
and outcomes. Recognizing group affect involves identifying important
individuals and salient objects among a crowd that can evoke emotions. However,
most existing methods lack attention to affective meaning in group dynamics and
fail to account for the contextual relevance of faces and objects in
group-level images. In this work, we propose a solution by incorporating the
psychological concept of the Most Important Person (MIP), which represents the
most noteworthy face in a crowd and has affective semantic meaning. We present
the Dual-branch Cross-Patch Attention Transformer (DCAT) which uses global
image and MIP together as inputs. Specifically, we first learn the informative
facial regions produced by the MIP and the global context separately. Then, the
Cross-Patch Attention module is proposed to fuse the features of MIP and global
context together to complement each other. Our proposed method outperforms
state-of-the-art methods on GAF 3.0, GroupEmoW, and HECO datasets. Moreover, we
demonstrate the potential for broader applications by showing that our proposed
model can be transferred to another group affect task, group cohesion, and
achieve comparable results.
- Abstract(参考訳): グループ・インフルエント(group affect)とは、グループ内の外部刺激によって誘発される主観的な感情のことであり、グループ行動や結果を形成する重要な要素である。
集団的影響を認識するには、感情を誘発できる群集の中で重要な個人と有能な対象を特定する必要がある。
しかし、既存の手法の多くは、グループダイナミクスにおける感情的な意味に注意を払わず、グループレベルの画像における顔やオブジェクトの文脈的関連性を考慮できていない。
本研究では,群集の中でもっとも注目に値する顔を表わし,情緒的意味を持つ最重要人物(mip)の心理的概念を取り入れた解法を提案する。
本稿では,グローバルイメージとMIPを併用したDual-branch Cross-Patch Attention Transformer(DCAT)を提案する。
具体的には、まず、mipが生成する情報的顔領域と、グローバルコンテキストを別々に学習する。
次に、MIPとグローバルコンテキストの特徴を融合させて相互補完するために、クロスパッチアテンションモジュールを提案する。
提案手法は,GAF 3.0, GroupEmoW, HECOデータセットの最先端手法より優れている。
さらに,提案するモデルを他のグループインパクトタスクやグループ凝集に移し,同等の結果が得られることを示すことにより,より広範なアプリケーションの可能性を示す。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Self-supervised Gait-based Emotion Representation Learning from Selective Strongly Augmented Skeleton Sequences [4.740624855896404]
自己教師型歩行に基づく感情表現のための選択的強強化を利用したコントラスト学習フレームワークを提案する。
提案手法はEmotion-Gait (E-Gait) と Emilya のデータセットで検証され, 異なる評価プロトコル下での最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-05-08T09:13:10Z) - AdaFPP: Adapt-Focused Bi-Propagating Prototype Learning for Panoramic Activity Recognition [51.24321348668037]
パノラマ活動認識(PAR)は、パノラマシーンにおいて複数の人が行う多粒度行動を特定することを目的としている。
以前の方法は、トレーニングと推論において手動で注釈付き検出ボックスに依存しており、より実用的なデプロイメントを妨げる。
本研究では,パノラマ活動シーンにおける個人,グループ,グローバルな活動を共同で認識するための,適応型バイプロパゲーティング・プロトタイプ学習(AdaFPP)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-04T01:53:22Z) - Disentangled Interaction Representation for One-Stage Human-Object
Interaction Detection [70.96299509159981]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、人間中心の画像理解のコアタスクである。
最近のワンステージ手法では、対話予測に有用な画像ワイドキューの収集にトランスフォーマーデコーダを採用している。
従来の2段階の手法は、非絡み合いで説明可能な方法で相互作用特徴を構成する能力から大きな恩恵を受ける。
論文 参考訳(メタデータ) (2023-12-04T08:02:59Z) - Ranking-based Group Identification via Factorized Attention on Social
Tripartite Graph [68.08590487960475]
グループ識別のための文脈的要因認識(CFAG)という,GNNに基づく新しいフレームワークを提案する。
我々は3部グラフ畳み込み層を考案し、ユーザ、グループ、アイテム間の異なる種類の近隣からの情報を集約する。
データ疎度問題に対処するため,提案した因子化注意機構に基づく新しい伝搬増強層を考案した。
論文 参考訳(メタデータ) (2022-11-02T01:42:20Z) - Mix and Reason: Reasoning over Semantic Topology with Data Mixing for
Domain Generalization [48.90173060487124]
ドメイン一般化(DG)は、複数のソースドメインから見えないターゲットドメインへの学習マシンを可能にする。
mire は2つのキーコンポーネント、すなわち Category-Aware Data Mixing (CDM) と Adaptive Semantic Topology Refinement (ASTR) で構成されている。
複数のDGベンチマーク実験により,提案法の有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2022-10-14T06:52:34Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Referring Image Segmentation via Cross-Modal Progressive Comprehension [94.70482302324704]
画像セグメンテーションの参照は、自然言語表現で与えられた記述によく一致するエンティティの前景マスクをセグメンテーションすることを目的としている。
従来のアプローチでは、暗黙的な特徴相互作用と視覚的モダリティと言語的モダリティの融合を用いてこの問題に対処していた。
本稿では,この課題に効果的に対応するために,Cross-Modal Progressive (CMPC) モジュールと Text-Guided Feature Exchange (TGFE) モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-01T16:02:30Z) - GroupFace: Learning Latent Groups and Constructing Group-based
Representations for Face Recognition [20.407167858663453]
組込み機能の品質を向上させるために,グループフェイスと呼ばれる新しい顔認識特化アーキテクチャを提案する。
提案手法は,人間のアノテーションを付加せずに各グループに属するサンプル数のバランスをとる自己分散ラベルを提供する。
提案手法のすべてのコンポーネントは、計算複雑性を極端に増加させることなく、エンドツーエンドで訓練することができる。
論文 参考訳(メタデータ) (2020-05-21T07:30:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。