論文の概要: Cross-Centroid Ripple Pattern for Facial Expression Recognition
- arxiv url: http://arxiv.org/abs/2201.05958v1
- Date: Sun, 16 Jan 2022 03:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-22 08:22:07.992958
- Title: Cross-Centroid Ripple Pattern for Facial Expression Recognition
- Title(参考訳): 表情認識のためのクロスセンターリップルパターン
- Authors: Monu Verma, Prafulla Saxena, Santosh Kumar Vipparthi, Girdhari Singh
- Abstract要約: 表情認識のための特徴記述子クロスセントロイド・リップルパターン(CRIP)を提案する。
CRIPは、半径r1とr2の2つのリップル間のクロスセントロイド関係をそれぞれ組み込むことで、表情の遷移パターンを符号化する。
- 参考スコア(独自算出の注目度): 7.218497970427467
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a new feature descriptor Cross-Centroid Ripple
Pattern (CRIP) for facial expression recognition. CRIP encodes the transitional
pattern of a facial expression by incorporating cross-centroid relationship
between two ripples located at radius r1 and r2 respectively. These ripples are
generated by dividing the local neighborhood region into subregions. Thus, CRIP
has ability to preserve macro and micro structural variations in an extensive
region, which enables it to deal with side views and spontaneous expressions.
Furthermore, gradient information between cross centroid ripples provides
strenght to captures prominent edge features in active patches: eyes, nose and
mouth, that define the disparities between different facial expressions. Cross
centroid information also provides robustness to irregular illumination.
Moreover, CRIP utilizes the averaging behavior of pixels at subregions that
yields robustness to deal with noisy conditions. The performance of proposed
descriptor is evaluated on seven comprehensive expression datasets consisting
of challenging conditions such as age, pose, ethnicity and illumination
variations. The experimental results show that our descriptor consistently
achieved better accuracy rate as compared to existing state-of-art approaches.
- Abstract(参考訳): 本稿では,表情認識のための特徴記述子であるクロスセントロイド・リップルパターン(CRIP)を提案する。
CRIPは、半径r1とr2の2つのリップル間のクロスセントロイド関係をそれぞれ組み込むことで、表情の遷移パターンを符号化する。
これらのリップルは、地域地域をサブリージョンに分割することで生成される。
このように、cripは、マクロおよびマイクロ構造の変化を広範囲に保持する能力を有しており、サイドビューや自発的な表現を扱うことができる。
さらに、クロスセントロイドリップル間の勾配情報は、異なる表情間の差を定義する目、鼻、口といったアクティブパッチの顕著なエッジ特徴を捉えるためのストレンゲットを提供する。
クロスセントロイド情報は不規則照明に対する堅牢性も提供する。
さらに、cripはサブリージョンにおけるピクセル平均化挙動を利用し、ノイズの多い状況に対処するロバスト性をもたらす。
提案する記述子の性能は, 年齢, ポーズ, 民族性, 照明など, 困難な条件からなる7つの包括的表現データセット上で評価される。
実験結果から,我々の記述子は既存の最先端手法に比べて精度が良いことがわかった。
関連論文リスト
- SpotFormer: Multi-Scale Spatio-Temporal Transformer for Facial Expression Spotting [11.978551396144532]
本稿では,表情スポッティングのための効率的なフレームワークを提案する。
まず,スライディングウィンドウを用いたマルチリゾリューション・オプティカルフロー(SW-MRO)機能を提案する。
第2に,SW-MRO特徴の顔時間関係を同時に符号化し,フレームレベルの精度推定を行うマルチスケール時間変換器であるSpotFormerを提案する。
第3に,異なる種類の表現の識別性を高めるために,教師付きコントラスト学習をSpotFormerに導入する。
論文 参考訳(メタデータ) (2024-07-30T13:02:08Z) - Text-Guided Face Recognition using Multi-Granularity Cross-Modal
Contrastive Learning [0.0]
テキスト誘導顔認識(TGFR)を導入し、自然言語記述の形で顔属性を統合することの影響を解析する。
TGFRは、特に低画質の画像において、既存の顔認識モデルよりも顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-14T22:04:22Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Local Gradient Hexa Pattern: A Descriptor for Face Recognition and
Retrieval [20.77994516381]
基準画素とその隣接する画素間の関係を同定する局所勾配ヘキサパターン(LGHP)を提案する。
識別情報は、地域や異なるデリバティブな方向でも存在している。
提案するディスクリプタは,最先端のディスクリプタに比べて高い認識率と検索率を有する。
論文 参考訳(メタデータ) (2022-01-03T07:45:36Z) - MC-LCR: Multi-modal contrastive classification by locally correlated
representations for effective face forgery detection [11.124150983521158]
局所的関連表現を用いたマルチモーダルコントラスト分類法を提案する。
我々のMC-LCRは、空間領域と周波数領域の両方から真偽顔と偽顔の暗黙の局所的不一致を増幅することを目的としている。
我々は最先端の性能を達成し,本手法の堅牢性と一般化を実証する。
論文 参考訳(メタデータ) (2021-10-07T09:24:12Z) - Learning Fair Face Representation With Progressive Cross Transformer [79.73754444296213]
フェアフェイス認識のためのプログレッシブクロストランス (PCT) 手法を提案する。
我々は,PCTが最先端FR性能を達成しつつ,顔認識におけるバイアスを軽減することができることを示した。
論文 参考訳(メタデータ) (2021-08-11T01:31:14Z) - Dual-Cross Central Difference Network for Face Anti-Spoofing [54.81222020394219]
対面防止(FAS)は、顔認識システムを保護する上で重要な役割を担っている。
中央差分畳み込み(CDC)は、FASタスクの優れた表現能力を示しています。
中心と周囲の局所的な特徴の差を利用した2つのC-CDC(Cross Central difference Convolutions)を提案する。
論文 参考訳(メタデータ) (2021-05-04T05:11:47Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z) - Robust Facial Landmark Detection by Cross-order Cross-semantic Deep
Network [58.843211405385205]
顔のランドマーク検出を堅牢にするためのセマンティックな特徴学習を促進するために,クロスオーダー・クロスセマンティック・ディープ・ネットワーク(CCDN)を提案する。
具体的には、より識別的な表現学習のためのクロスオーダーチャネル相関を導入するために、クロスオーダー2列マルチ励起(CTM)モジュールを提案する。
新しいクロス・オーダー・クロス・セマンティック・レギュレータ (COCS) は、顔のランドマーク検出のために異なるアクティベーションからクロス・オーダーのクロス・セマンティック特徴を学習するためにネットワークを駆動するように設計されている。
論文 参考訳(メタデータ) (2020-11-16T08:19:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。