論文の概要: QCS:Feature Refining from Quadruplet Cross Similarity for Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2411.01988v1
- Date: Mon, 04 Nov 2024 11:20:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:39:34.039956
- Title: QCS:Feature Refining from Quadruplet Cross Similarity for Facial Expression Recognition
- Title(参考訳): QCS:顔の表情認識のための四肢交叉類似性からの精細化
- Authors: Chengpeng Wang, Li Chen, Lili Wang, Zhaofan Li, Xuebin Lv,
- Abstract要約: 入力出力位置感応型アテンション機構であるCSA(Cross similarity Attention)を導入する。
そこで我々は,同じクラスから識別的特徴を抽出するために,四括弧断面類似度 (QCS) と呼ばれる4分岐円形フレームワークを提案する。
提案したQCSモデルは、複数のFERデータセット上で最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 17.7824127337701
- License:
- Abstract: On facial expression datasets with complex and numerous feature types, where the significance and dominance of labeled features are difficult to predict, facial expression recognition(FER) encounters the challenges of inter-class similarity and intra-class variances, making it difficult to mine effective features. We aim to solely leverage the feature similarity among facial samples to address this. We introduce the Cross Similarity Attention (CSA), an input-output position-sensitive attention mechanism that harnesses feature similarity across different images to compute the corresponding global spatial attention. Based on this, we propose a four-branch circular framework, called Quadruplet Cross Similarity (QCS), to extract discriminative features from the same class and eliminate redundant ones from different classes synchronously to refine cleaner features. The symmetry of the network ensures balanced and stable training and reduces the amount of CSA interaction matrix. Contrastive residual distillation is utilized to transfer the information learned in the cross module back to the base network. The cross-attention module exists during training, and only one base branch is retained during inference. our proposed QCS model outperforms state-of-the-art methods on several popular FER datasets, without requiring additional landmark information or other extra training data. The code is available at https://github.com/birdwcp/QCS.
- Abstract(参考訳): ラベル付き特徴の重要度と優位性を予測するのが困難である複雑な特徴型を持つ表情データセットでは、表情認識(FER)はクラス間類似性とクラス内分散の課題に直面するため、効果的な特徴のマイニングが困難である。
我々は、顔のサンプルの特徴的類似性のみを活用して、この問題に対処することを目指している。
CSA(Cross similarity Attention)は、異なる画像間で特徴的類似性を利用して対応する大域的空間的注意力を計算する、入力出力位置感応型注意機構である。
そこで我々は,同じクラスから識別的特徴を抽出し,異なるクラスから冗長な特徴を同期的に除去し,よりクリーンな特徴を洗練するための4分岐円形フレームワークであるQuadruplet Cross similarity (QCS)を提案する。
ネットワークの対称性はバランスよく安定したトレーニングを保証し、CSA相互作用行列の量を減らす。
コントラスト残留蒸留を用いて、クロスモジュールで学んだ情報をベースネットワークに転送する。
クロスアテンションモジュールはトレーニング中に存在し、推論中に1つのベースブランチのみが保持される。
提案したQCSモデルは,いくつかのFERデータセットにおいて,ランドマーク情報や追加のトレーニングデータを必要とすることなく,最先端の手法よりも優れている。
コードはhttps://github.com/birdwcp/QCSで公開されている。
関連論文リスト
- Semi-supervised Semantic Segmentation for Remote Sensing Images via Multi-scale Uncertainty Consistency and Cross-Teacher-Student Attention [59.19580789952102]
本稿では,RS画像セマンティックセグメンテーションタスクのための,新しい半教師付きマルチスケール不確かさとクロスTeacher-Student Attention(MUCA)モデルを提案する。
MUCAは、マルチスケールの不確実性整合正則化を導入することにより、ネットワークの異なる層における特徴写像間の整合性を制限する。
MUCAは学生ネットワークの誘導にクロス教師・学生の注意機構を使用し、学生ネットワークにより差別的な特徴表現を構築するよう誘導する。
論文 参考訳(メタデータ) (2025-01-18T11:57:20Z) - Exploring Homogeneous and Heterogeneous Consistent Label Associations for Unsupervised Visible-Infrared Person ReID [57.500045584556794]
均質かつ不均一なインスタンスレベルの構造を同時に説明できるModality-Unified Label Transfer (MULT) モジュールを導入する。
提案したMULTは、生成した擬似ラベルがモダリティ間の整合性を維持しつつ、モダリティ内の構造的整合性を維持することを保証する。
実験の結果,提案手法は既存のUSL-VI-ReID法よりも優れていた。
論文 参考訳(メタデータ) (2024-02-01T15:33:17Z) - Efficient Bilateral Cross-Modality Cluster Matching for Unsupervised Visible-Infrared Person ReID [56.573905143954015]
本稿では, クラスタ間マッチングによるモダリティギャップを低減するための, クラスタマッチングに基づく新たな学習フレームワークを提案する。
このような監視信号の下では、クラスタレベルで特徴を協調的に整列させるために、モダリティ・特定・モダリティ・非依存(MSMA)コントラスト学習フレームワークが提案されている。
公開SYSU-MM01とRegDBデータセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-05-22T03:27:46Z) - Relational Embedding for Few-Shot Classification [32.12002195421671]
本稿では,メタラーニング(メタラーニング)の「観察すべきもの」と「出席すべき場所」をリレーショナルな視点で扱うことで,数発分類の問題に対処することを提案する。
我々の手法は自己相関表現(SCR)と相互相関注意(CCA)を通して画像内および画像間のパターンを利用する。
私たちの埋め込みネットワーク(RENet)は2つのリレーショナルモジュールを組み合わせて、エンドツーエンドでリレーショナル埋め込みを学習します。
論文 参考訳(メタデータ) (2021-08-22T08:44:55Z) - Dual-Cross Central Difference Network for Face Anti-Spoofing [54.81222020394219]
対面防止(FAS)は、顔認識システムを保護する上で重要な役割を担っている。
中央差分畳み込み(CDC)は、FASタスクの優れた表現能力を示しています。
中心と周囲の局所的な特徴の差を利用した2つのC-CDC(Cross Central difference Convolutions)を提案する。
論文 参考訳(メタデータ) (2021-05-04T05:11:47Z) - CrossATNet - A Novel Cross-Attention Based Framework for Sketch-Based
Image Retrieval [30.249581102239645]
スケッチベース画像検索(SBIR)の文脈におけるZSL(クロスモーダル・ゼロショット・ラーニング)のための新しいフレームワークを提案する。
共有空間の識別性を確保するためにクロスモーダル三重項損失を定義する一方で、画像領域から特徴抽出を導くための革新的なクロスモーダル注意学習戦略も提案されている。
論文 参考訳(メタデータ) (2021-04-20T12:11:12Z) - Robust Facial Landmark Detection by Cross-order Cross-semantic Deep
Network [58.843211405385205]
顔のランドマーク検出を堅牢にするためのセマンティックな特徴学習を促進するために,クロスオーダー・クロスセマンティック・ディープ・ネットワーク(CCDN)を提案する。
具体的には、より識別的な表現学習のためのクロスオーダーチャネル相関を導入するために、クロスオーダー2列マルチ励起(CTM)モジュールを提案する。
新しいクロス・オーダー・クロス・セマンティック・レギュレータ (COCS) は、顔のランドマーク検出のために異なるアクティベーションからクロス・オーダーのクロス・セマンティック特徴を学習するためにネットワークを駆動するように設計されている。
論文 参考訳(メタデータ) (2020-11-16T08:19:26Z) - Multi-Margin based Decorrelation Learning for Heterogeneous Face
Recognition [90.26023388850771]
本稿では,超球面空間におけるデコリレーション表現を抽出するディープニューラルネットワーク手法を提案する。
提案するフレームワークは,不均一表現ネットワークとデコリレーション表現学習の2つのコンポーネントに分けることができる。
2つの難解な異種顔データベースに対する実験結果から,本手法は検証タスクと認識タスクの両方において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-25T07:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。