論文の概要: Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework
- arxiv url: http://arxiv.org/abs/2103.15792v1
- Date: Mon, 29 Mar 2021 17:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 15:27:44.410000
- Title: Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework
- Title(参考訳): 弱体化における影響分析: 妥当性, 表現, アクションユニット, 統一フレームワーク
- Authors: Dimitrios Kollias and Stefanos Zafeiriou
- Abstract要約: Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
- 参考スコア(独自算出の注目度): 83.21732533130846
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Affect recognition based on subjects' facial expressions has been a topic of
major research in the attempt to generate machines that can understand the way
subjects feel, act and react. In the past, due to the unavailability of large
amounts of data captured in real-life situations, research has mainly focused
on controlled environments. However, recently, social media and platforms have
been widely used. Moreover, deep learning has emerged as a means to solve
visual analysis and recognition problems. This paper exploits these advances
and presents significant contributions for affect analysis and recognition
in-the-wild. Affect analysis and recognition can be seen as a dual knowledge
generation problem, involving: i) creation of new, large and rich in-the-wild
databases and ii) design and training of novel deep neural architectures that
are able to analyse affect over these databases and to successfully generalise
their performance on other datasets. The paper focuses on large in-the-wild
databases, i.e., Aff-Wild and Aff-Wild2 and presents the design of two classes
of deep neural networks trained with these databases. The first class refers to
uni-task affect recognition, focusing on prediction of the valence and arousal
dimensional variables. The second class refers to estimation of all main
behavior tasks, i.e. valence-arousal prediction; categorical emotion
classification in seven basic facial expressions; facial Action Unit detection.
A novel multi-task and holistic framework is presented which is able to jointly
learn and effectively generalize and perform affect recognition over all
existing in-the-wild databases. Large experimental studies illustrate the
achieved performance improvement over the existing state-of-the-art in affect
recognition.
- Abstract(参考訳): 被験者の表情に基づく感情認識は、被験者の感情、行動、反応の仕方を理解することができる機械を創り出そうとする主要な研究のトピックである。
過去には、実生活で捉えた大量のデータが利用できないため、主に制御された環境に焦点が当てられている。
しかし、近年はソーシャルメディアやプラットフォームが広く使われている。
さらに、視覚分析と認識問題を解決する手段としてディープラーニングが登場している。
本稿では,これらの進歩を生かし,その影響分析と認識に重要な貢献をする。
影響分析と認識は、2つの知識生成問題と見なすことができる: i) 新規で大規模でリッチなインザワイルドデータベースの作成 ii) これらのデータベースに対する影響を分析し、他のデータセットのパフォーマンスをうまく一般化できる新しいディープニューラルネットワークの設計とトレーニング。
この論文は、大規模インザワイルドデータベース、すなわちAff-WildとAff-Wild2に焦点を当て、これらのデータベースで訓練された2種類のディープニューラルネットワークの設計を提示する。
第一のクラスは、価数と覚醒次元の変数の予測に焦点を当てた、単タスクな影響認識を指す。
第2のクラスは、すべての主要な振る舞いタスク、すなわち、見積もりを指す。
原子価-覚醒予測;7つの基本的な表情におけるカテゴリー的感情分類;顔行動単位の検出。
既存の全データベースに対する感情認識を共同学習し、効果的に一般化し、実行することが可能な、新しいマルチタスクおよび総合的なフレームワークを提案する。
大規模な実験的研究は、影響認識における既存の最先端技術よりも達成されたパフォーマンス改善を示す。
関連論文リスト
- Balancing the Scales: Enhancing Fairness in Facial Expression Recognition with Latent Alignment [5.784550537553534]
このワークル平均は、表情認識システムにおけるバイアスを軽減するために、潜在空間に基づく表現学習を行う。
また、ディープラーニングモデルの公平性と全体的な正確性も向上する。
論文 参考訳(メタデータ) (2024-10-25T10:03:10Z) - Object recognition in primates: What can early visual areas contribute? [0.0]
本研究では,初期視覚処理領域で搬送される信号が周囲の物体認識にどのように利用されるかを検討した。
V1の単純なセルや複雑なセルのモデルは、非常に信頼できる情報を提供することができ、現実的なシナリオでは80%以上の性能が向上する。
我々は,物体認識を並列プロセスと見なすべきであり,低精度かつ高速なモジュールと並列に動作し,視野をまたいで動作可能であることを提案する。
論文 参考訳(メタデータ) (2024-07-05T18:57:09Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Fine-Grained Image Analysis with Deep Learning: A Survey [146.22351342315233]
きめ細かい画像解析(FGIA)は、コンピュータビジョンとパターン認識における長年の根本的な問題である。
本稿では、FGIAの分野を再定義し、FGIAの2つの基礎研究領域、細粒度画像認識と細粒度画像検索を統合することで、FGIAの分野を広げようとしている。
論文 参考訳(メタデータ) (2021-11-11T09:43:56Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Prior Aided Streaming Network for Multi-task Affective Recognitionat the
2nd ABAW2 Competition [9.188777864190204]
我々は第2回ABAW2コンペティション(ABAW2コンペティション)に応募する。
異なる感情表現を扱う際に,マルチタスク・ストリーミング・ネットワークを提案する。
我々は、先行知識として高度な表情埋め込みを活用している。
論文 参考訳(メタデータ) (2021-07-08T09:35:08Z) - Understanding top-down attention using task-oriented ablation design [0.22940141855172028]
トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
我々は,タスク指向アブレーション設計と呼ばれる一般的なフレームワークに基づく計算実験により,この問題に対処することを目指している。
2つのニューラルネットワークの性能を比較する。
論文 参考訳(メタデータ) (2021-06-08T21:01:47Z) - A Multi-resolution Approach to Expression Recognition in the Wild [9.118706387430883]
顔認識タスクを解決するためのマルチリゾリューション手法を提案する。
私たちは、しばしば異なる解像度で画像が取得されるという観察を直感的に根拠としています。
我々は、Affect-in-the-Wild 2データセットに基づいてトレーニングされたSqueeze-and-Excitationブロックを備えたResNetのようなアーキテクチャを使用する。
論文 参考訳(メタデータ) (2021-03-09T21:21:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。