論文の概要: Continual Facial Expression Recognition: A Benchmark
- arxiv url: http://arxiv.org/abs/2305.06448v1
- Date: Wed, 10 May 2023 20:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 16:35:28.551218
- Title: Continual Facial Expression Recognition: A Benchmark
- Title(参考訳): 連続的な表情認識:ベンチマーク
- Authors: Nikhil Churamani, Tolga Dimlioglu, German I. Parisi and Hatice Gunes
- Abstract要約: 本研究は、FERタスク上でのCL技術の評価を行うConFER(Continuous Facial Expression Recognition)ベンチマークを示す。
これは、CK+、RAF-DB、AffectNetといった一般的なFERデータセットに対するCLベースのアプローチの比較分析である。
CL技術は、異なる学習環境下で、複数のデータセットで最先端(SOTA)パフォーマンスを達成することが示されている。
- 参考スコア(独自算出の注目度): 3.181579197770883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding human affective behaviour, especially in the dynamics of
real-world settings, requires Facial Expression Recognition (FER) models to
continuously adapt to individual differences in user expression, contextual
attributions, and the environment. Current (deep) Machine Learning (ML)-based
FER approaches pre-trained in isolation on benchmark datasets fail to capture
the nuances of real-world interactions where data is available only
incrementally, acquired by the agent or robot during interactions. New learning
comes at the cost of previous knowledge, resulting in catastrophic forgetting.
Lifelong or Continual Learning (CL), on the other hand, enables adaptability in
agents by being sensitive to changing data distributions, integrating new
information without interfering with previously learnt knowledge. Positing CL
as an effective learning paradigm for FER, this work presents the Continual
Facial Expression Recognition (ConFER) benchmark that evaluates popular CL
techniques on FER tasks. It presents a comparative analysis of several CL-based
approaches on popular FER datasets such as CK+, RAF-DB, and AffectNet and
present strategies for a successful implementation of ConFER for Affective
Computing (AC) research. CL techniques, under different learning settings, are
shown to achieve state-of-the-art (SOTA) performance across several datasets,
thus motivating a discussion on the benefits of applying CL principles towards
human behaviour understanding, particularly from facial expressions, as well
the challenges entailed.
- Abstract(参考訳): 人間の感情的行動を理解すること、特に現実世界の設定の力学において、表情認識(FER)モデルは、ユーザ表現、文脈属性、環境の個人差に継続的に適応する必要がある。
現状(ディープ) 機械学習(ML)ベースのFERアプローチ ベンチマークデータセット上で事前訓練された個別のアプローチでは、対話中にエージェントやロボットが取得したデータしか利用できない実世界のインタラクションのニュアンスをキャプチャできない。
新しい学習は以前の知識のコストがかかるため、破滅的な忘れることになる。
一方、生涯学習または連続学習(CL)は、データ分布の変更に敏感であり、学習前の知識に干渉することなく新たな情報を統合することにより、エージェントの適応性を実現する。
本研究は、FERの効果的な学習パラダイムとしてCLを仮定し、FERタスク上で人気のCL技術を評価するContinuous Facial Expression Recognition (ConFER)ベンチマークを示す。
CK+、RAF-DB、AffectNetといった一般的なFERデータセットに対するCLベースのアプローチの比較分析を行い、ConFER for Affective Computing (AC)研究を成功させるための戦略を示す。
CL技術は、異なる学習環境下で、複数のデータセットにわたる最先端(SOTA)のパフォーマンスを達成することが示されており、特に表情から、人間の行動理解にCL原則を適用することの利点と、それに関連する課題に関する議論の動機となっている。
関連論文リスト
- CLFace: A Scalable and Resource-Efficient Continual Learning Framework for Lifelong Face Recognition [0.0]
CLFaceは学習知識の保存と漸進的な拡張を目的とした継続的学習フレームワークである。
分類層を排除し、生涯学習を通して固定された資源効率の高いFRモデルをもたらす。
教師モデルの特徴埋め込みの向きを維持するために、幾何学保存蒸留スキームが組み込まれている。
論文 参考訳(メタデータ) (2024-11-21T06:55:43Z) - Investigating the Pre-Training Dynamics of In-Context Learning: Task Recognition vs. Task Learning [99.05401042153214]
In-context Learning(ICL)は、タスク認識(TR)とタスク学習(TL)の2つの主要な能力に起因する可能性がある。
ICLの出現の事前学習のダイナミクスを調べることで、第一歩を踏み出す。
そこで本研究では,この2つの機能を推論時によりよく統合するための,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-06-20T06:37:47Z) - Facial Affective Behavior Analysis with Instruction Tuning [58.332959295770614]
顔の感情行動分析(FABA)は、画像から人間の精神状態を理解するために重要である。
従来のアプローチでは、主に個別の感情カテゴリーを識別するためのモデルをデプロイし、複雑な顔の振る舞いに対する細かい粒度と推論能力が欠如している。
本稿では,2つのFABAタスクに対する指示追従データセット,感情と行動の単位認識,および認識能力と生成能力の両方を考慮したベンチマークFABA-Benchを紹介する。
また,顔構造知識と低ランク適応モジュールを事前学習MLLMに導入した。
論文 参考訳(メタデータ) (2024-04-07T19:23:28Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Learning Deep Representations via Contrastive Learning for Instance
Retrieval [11.736450745549792]
本稿では、インスタンス識別に基づくコントラスト学習(CL)を用いて、この問題に取り組むための最初の試みを行う。
本研究では、事前学習されたCLモデルと微調整されたCLモデルから識別表現を導出する能力を探求することにより、この問題に対処する。
論文 参考訳(メタデータ) (2022-09-28T04:36:34Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Confounder Identification-free Causal Visual Feature Learning [84.28462256571822]
本稿では,創始者を特定する必要性を排除した,創始者同定自由因果視覚特徴学習(CICF)手法を提案する。
CICFは、フロントドア基準に基づいて異なるサンプル間の介入をモデル化し、インスタンスレベルの介入に対するグローバルスコープ干渉効果を近似する。
我々は,CICFと一般的なメタラーニング戦略MAMLの関係を明らかにするとともに,MAMLが理論的観点から機能する理由を解釈する。
論文 参考訳(メタデータ) (2021-11-26T10:57:47Z) - Towards Fair Affective Robotics: Continual Learning for Mitigating Bias
in Facial Expression and Action Unit Recognition [5.478764356647437]
顔認識(FER)システムの公平性を高めるための効果的な戦略として、継続的学習(CL)を提案します。
我々は,様々な最先端バイアス緩和手法と,表現認識と行動単位検出タスクの公平性のためのCLベースの戦略を比較した。
実験の結果,CLに基づく手法は,平均的に一般的なバイアス緩和法よりも優れていた。
論文 参考訳(メタデータ) (2021-03-15T18:36:14Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。