論文の概要: Your "Attention" Deserves Attention: A Self-Diversified Multi-Channel
Attention for Facial Action Analysis
- arxiv url: http://arxiv.org/abs/2203.12570v1
- Date: Wed, 23 Mar 2022 17:29:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 17:20:24.080808
- Title: Your "Attention" Deserves Attention: A Self-Diversified Multi-Channel
Attention for Facial Action Analysis
- Title(参考訳): あなたの「注意」は注意に値する - 顔行動分析のためのマルチチャンネル注意
- Authors: Xiaotian Li, Zhihua Li, Huiyuan Yang, Geran Zhao and Lijun Yin
- Abstract要約: 本稿では,ニューラルアテンションマップの表現力と集中力を高めるためのコンパクトモデルを提案する。
提案手法は,AU検出のための2つのベンチマークデータベース (BP4D, DISFA) と顔認識のための4つのデータベース (CK+, MMI, BU-3DFE, BP4D+) で評価した。
最先端の手法に比べて優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 12.544285462327839
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual attention has been extensively studied for learning fine-grained
features in both facial expression recognition (FER) and Action Unit (AU)
detection. A broad range of previous research has explored how to use attention
modules to localize detailed facial parts (e,g. facial action units), learn
discriminative features, and learn inter-class correlation. However, few
related works pay attention to the robustness of the attention module itself.
Through experiments, we found neural attention maps initialized with different
feature maps yield diverse representations when learning to attend the
identical Region of Interest (ROI). In other words, similar to general feature
learning, the representational quality of attention maps also greatly affects
the performance of a model, which means unconstrained attention learning has
lots of randomnesses. This uncertainty lets conventional attention learning
fall into sub-optimal. In this paper, we propose a compact model to enhance the
representational and focusing power of neural attention maps and learn the
"inter-attention" correlation for refined attention maps, which we term the
"Self-Diversified Multi-Channel Attention Network (SMA-Net)". The proposed
method is evaluated on two benchmark databases (BP4D and DISFA) for AU
detection and four databases (CK+, MMI, BU-3DFE, and BP4D+) for facial
expression recognition. It achieves superior performance compared to the
state-of-the-art methods.
- Abstract(参考訳): 表情認識(FER)と行動単位検出(AU)の両方において、きめ細かい特徴を学習するために、視覚的注意が広く研究されている。
これまでの幅広い研究で、注意モジュールを使用して、詳細な顔の部分(例えば、顔の動き単位)をローカライズし、識別的特徴を学習し、クラス間の相関を学習する方法が検討されてきた。
しかし、注意モジュール自体の堅牢性に注意を払っている関連作品はほとんどない。
実験により、異なる特徴マップで初期化されたニューラルアテンションマップが、同一の関心領域(ROI)への参加を学ぶ際に、多様な表現をもたらすことがわかった。
言い換えれば、一般的な特徴学習と同様、注意マップの表現的質もモデルの性能に大きな影響を与え、制約のない注意学習には多くのランダム性がある。
この不確実性により、従来の注意学習は準最適に陥る。
本稿では,ニューラルアテンションマップの表現力と集中力を向上し,改良されたアテンションマップの「インターアテンション」相関を学習するコンパクトモデルを提案し,これを「自己分散マルチチャネルアテンションネットワーク(SMA-Net)」と呼ぶ。
提案手法は,AU検出のための2つのベンチマークデータベース(BP4D, DISFA)と顔認識のための4つのデータベース(CK+, MMI, BU-3DFE, BP4D+)で評価した。
最先端の手法に比べて優れた性能を発揮する。
関連論文リスト
- ResMatch: Residual Attention Learning for Local Feature Matching [51.07496081296863]
従来の特徴マッチングとフィルタリングの観点から、クロスアテンションとセルフアテンションを再考する。
我々は,記述者と相対的な位置の類似性を,クロスアテンションスコアとセルフアテンションスコアに注入する。
我々は、記述子と相対的な位置の類似性に応じて隣人内および隣人間を採掘する。
論文 参考訳(メタデータ) (2023-07-11T11:32:12Z) - Dual Cross-Attention Learning for Fine-Grained Visual Categorization and
Object Re-Identification [19.957957963417414]
本稿では,自己意図学習と協調する2つのクロスアテンション学習(DCAL)アルゴリズムを提案する。
まず,グローバル・ローカル・クロスアテンション(GLCA)を提案する。
第2に、画像ペア間の相互作用を確立するために、ペアワイズ・クロスアテンション(PWCA)を提案する。
論文 参考訳(メタデータ) (2022-05-04T16:14:26Z) - Distract Your Attention: Multi-head Cross Attention Network for Facial
Expression Recognition [4.500212131331687]
本稿では,DAN(Distract your Attention Network)と呼ばれる新しい表情認識ネットワークを提案する。
本手法は2つの重要な観察結果に基づいており、複数のクラスが本質的に類似した顔の外観を共有しており、その違いは微妙である可能性がある。
特徴クラスタリングネットワーク(FCN)、マルチヘッドクロスアテンションネットワーク(MAN)、アテンションフュージョンネットワーク(AFN)の3つの主要コンポーネントでDANを提案する。
論文 参考訳(メタデータ) (2021-09-15T13:15:54Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - A Simple and Effective Self-Supervised Contrastive Learning Framework
for Aspect Detection [15.36713547251997]
UADタスクのための新しいスムーズな自己意識(SSA)モジュールを備えた自己教師付きコントラスト学習フレームワークとアテンションベースモデルを提案する。
提案手法は, 公開されているベンチマークユーザレビューデータセットにおいて, 教師なし, 弱教師付きアプローチよりも優れている。
論文 参考訳(メタデータ) (2020-09-18T22:13:49Z) - Collaborative Attention Mechanism for Multi-View Action Recognition [75.33062629093054]
本稿では,多視点行動認識問題を解決するための協調的注意機構(CAM)を提案する。
提案したCAMは,多視点間での注意差を検出し,フレームレベルの情報を適応的に統合し,相互に利益をもたらす。
4つのアクションデータセットの実験では、提案されたCAMは、ビュー毎により良い結果を得るとともに、マルチビューのパフォーマンスも向上する。
論文 参考訳(メタデータ) (2020-09-14T17:33:10Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Deep Attention Aware Feature Learning for Person Re-Identification [22.107332426681072]
本稿では,人物のReIDネットワークに注意学習を付加目的として組み込むことを提案する。
我々は2つの典型的なネットワーク(TriNetとBag of Tricks)でその性能をテストし、5つの広く使われているデータセットで大幅な性能改善を観測した。
論文 参考訳(メタデータ) (2020-03-01T16:27:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。