論文の概要: QCS:Feature Refining from Quadruplet Cross Similarity for Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2411.01988v1
- Date: Mon, 04 Nov 2024 11:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:39:34.039956
- Title: QCS:Feature Refining from Quadruplet Cross Similarity for Facial Expression Recognition
- Title(参考訳): QCS:顔の表情認識のための四肢交叉類似性からの精細化
- Authors: Chengpeng Wang, Li Chen, Lili Wang, Zhaofan Li, Xuebin Lv,
- Abstract要約: 入力出力位置感応型アテンション機構であるCSA(Cross similarity Attention)を導入する。
そこで我々は,同じクラスから識別的特徴を抽出するために,四括弧断面類似度 (QCS) と呼ばれる4分岐円形フレームワークを提案する。
提案したQCSモデルは、複数のFERデータセット上で最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 17.7824127337701
- License:
- Abstract: On facial expression datasets with complex and numerous feature types, where the significance and dominance of labeled features are difficult to predict, facial expression recognition(FER) encounters the challenges of inter-class similarity and intra-class variances, making it difficult to mine effective features. We aim to solely leverage the feature similarity among facial samples to address this. We introduce the Cross Similarity Attention (CSA), an input-output position-sensitive attention mechanism that harnesses feature similarity across different images to compute the corresponding global spatial attention. Based on this, we propose a four-branch circular framework, called Quadruplet Cross Similarity (QCS), to extract discriminative features from the same class and eliminate redundant ones from different classes synchronously to refine cleaner features. The symmetry of the network ensures balanced and stable training and reduces the amount of CSA interaction matrix. Contrastive residual distillation is utilized to transfer the information learned in the cross module back to the base network. The cross-attention module exists during training, and only one base branch is retained during inference. our proposed QCS model outperforms state-of-the-art methods on several popular FER datasets, without requiring additional landmark information or other extra training data. The code is available at https://github.com/birdwcp/QCS.
- Abstract(参考訳): ラベル付き特徴の重要度と優位性を予測するのが困難である複雑な特徴型を持つ表情データセットでは、表情認識(FER)はクラス間類似性とクラス内分散の課題に直面するため、効果的な特徴のマイニングが困難である。
我々は、顔のサンプルの特徴的類似性のみを活用して、この問題に対処することを目指している。
CSA(Cross similarity Attention)は、異なる画像間で特徴的類似性を利用して対応する大域的空間的注意力を計算する、入力出力位置感応型注意機構である。
そこで我々は,同じクラスから識別的特徴を抽出し,異なるクラスから冗長な特徴を同期的に除去し,よりクリーンな特徴を洗練するための4分岐円形フレームワークであるQuadruplet Cross similarity (QCS)を提案する。
ネットワークの対称性はバランスよく安定したトレーニングを保証し、CSA相互作用行列の量を減らす。
コントラスト残留蒸留を用いて、クロスモジュールで学んだ情報をベースネットワークに転送する。
クロスアテンションモジュールはトレーニング中に存在し、推論中に1つのベースブランチのみが保持される。
提案したQCSモデルは,いくつかのFERデータセットにおいて,ランドマーク情報や追加のトレーニングデータを必要とすることなく,最先端の手法よりも優れている。
コードはhttps://github.com/birdwcp/QCSで公開されている。
関連論文リスト
- Decoupled Multi-task Learning with Cyclical Self-Regulation for Face
Parsing [71.19528222206088]
顔解析のための周期的自己統制型デカップリング型マルチタスク学習を提案する。
具体的には、DML-CSRは、顔解析、バイナリエッジ、カテゴリエッジ検出を含むマルチタスクモデルを設計する。
提案手法は,Helen,CelebA-HQ,LapaMaskのデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-28T02:12:30Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Cross-Level Cross-Scale Cross-Attention Network for Point Cloud
Representation [8.76786786874107]
最近、自然言語処理(NLP)と画像処理領域の顕著な進歩を達成した自己保持メカニズム。
ポイントクラウド表現学習のためのクロスレベルクロススケールクロスアテンションネットワーク(CLCSCANet)と呼ばれるエンドツーエンドアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-27T09:01:14Z) - Progressive Co-Attention Network for Fine-grained Visual Classification [20.838908090777885]
きめ細かい視覚分類は、同じカテゴリ内の複数のサブカテゴリに属する画像を認識することを目的としている。
既存のほとんどの方法は個々の画像のみを入力とする。
そこで本研究では,pca-net(progressive co-attention network)と呼ばれる効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-01-21T10:19:02Z) - Robust Facial Landmark Detection by Cross-order Cross-semantic Deep
Network [58.843211405385205]
顔のランドマーク検出を堅牢にするためのセマンティックな特徴学習を促進するために,クロスオーダー・クロスセマンティック・ディープ・ネットワーク(CCDN)を提案する。
具体的には、より識別的な表現学習のためのクロスオーダーチャネル相関を導入するために、クロスオーダー2列マルチ励起(CTM)モジュールを提案する。
新しいクロス・オーダー・クロス・セマンティック・レギュレータ (COCS) は、顔のランドマーク検出のために異なるアクティベーションからクロス・オーダーのクロス・セマンティック特徴を学習するためにネットワークを駆動するように設計されている。
論文 参考訳(メタデータ) (2020-11-16T08:19:26Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。