論文の概要: I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition
- arxiv url: http://arxiv.org/abs/2210.17421v1
- Date: Fri, 28 Oct 2022 16:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:05:21.992635
- Title: I am Only Happy When There is Light: The Impact of Environmental Changes
on Affective Facial Expressions Recognition
- Title(参考訳): 光があるときだけ幸せである:環境変化が顔の表情認識に及ぼす影響
- Authors: Doreen Jirak, Alessandra Sciutti, Pablo Barros, Francesco Rea
- Abstract要約: 本研究では,異なる画像条件が人間の表情からの覚醒の認識に与える影響について検討した。
以上の結果から,人間の感情状態の解釈が肯定的,否定的に大きく異なることが示唆された。
- 参考スコア(独自算出の注目度): 65.69256728493015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-robot interaction (HRI) benefits greatly from advances in the machine
learning field as it allows researchers to employ high-performance models for
perceptual tasks like detection and recognition. Especially deep learning
models, either pre-trained for feature extraction or used for classification,
are now established methods to characterize human behaviors in HRI scenarios
and to have social robots that understand better those behaviors. As HRI
experiments are usually small-scale and constrained to particular lab
environments, the questions are how well can deep learning models generalize to
specific interaction scenarios, and further, how good is their robustness
towards environmental changes? These questions are important to address if the
HRI field wishes to put social robotic companions into real environments acting
consistently, i.e. changing lighting conditions or moving people should still
produce the same recognition results. In this paper, we study the impact of
different image conditions on the recognition of arousal and valence from human
facial expressions using the FaceChannel framework \cite{Barro20}. Our results
show how the interpretation of human affective states can differ greatly in
either the positive or negative direction even when changing only slightly the
image properties. We conclude the paper with important points to consider when
employing deep learning models to ensure sound interpretation of HRI
experiments.
- Abstract(参考訳): HRI(Human-robot Interaction)は、研究者が検出や認識といった知覚的なタスクに高性能なモデルを使用することで、機械学習分野の進歩から大きな恩恵を受ける。
特に、特徴抽出のために事前訓練されたり、分類に使用されたりした深層学習モデルは、HRIシナリオにおける人間の振る舞いを特徴づけ、それらの振る舞いをよりよく理解する社会ロボットを持つための方法が確立されている。
HRI実験は通常、小規模で特定の実験室環境に制約があるため、ディープラーニングモデルが特定の相互作用シナリオにどの程度一般化できるか、さらに、その環境変化に対する堅牢性はどの程度良好か、といった疑問がある。
これらの疑問は、HRIフィールドが社会ロボティクスを現実の環境に一貫した行動に組み込もうとするかどうか、すなわち、照明条件の変更や人を動かすことは、依然として同じ認識結果を生み出すべきである、という問題に対処することが重要である。
本稿では,人間の表情からの覚醒とヴァレンス認識に異なる画像条件が与える影響について,facechannelフレームワーク \cite{barro20}を用いて検討する。
その結果,人間の感情状態の解釈は,画像特性をわずかに変えるだけでは,肯定的,否定的いずれの方向にも大きく異なることがわかった。
本稿では,HRI実験の音声解釈を確実にするために,ディープラーニングモデルを用いた場合の重要点をまとめる。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Facial Expression Recognition using Squeeze and Excitation-powered Swin
Transformers [0.0]
本研究では,Swin Vision Transformers (SwinT) とSwin Vision Transformers (SE) を用いて,視覚タスクに対処するフレームワークを提案する。
我々の焦点は、最小限のデータを使って顔の感情を認識できるSwinTアーキテクチャに基づく効率的なFERモデルを作ることであった。
我々は、ハイブリッドデータセットでモデルをトレーニングし、そのパフォーマンスをAffectNetデータセットで評価し、F1スコア0.5420を達成しました。
論文 参考訳(メタデータ) (2023-01-26T02:29:17Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - The world seems different in a social context: a neural network analysis
of human experimental data [57.729312306803955]
本研究では,先行・知覚的信号の精度を変化させることで,個人・社会的タスク設定の両方で人間の行動データを再現可能であることを示す。
トレーニングされたネットワークの神経活性化トレースの分析は、情報が個人や社会的条件のネットワークにおいて、根本的に異なる方法でコード化されていることを示す。
論文 参考訳(メタデータ) (2022-03-03T17:19:12Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Domain Adaptation for Facial Expression Classifier via Domain
Discrimination and Gradient Reversal [0.0]
表情認識(FER)の分野での研究は、過去10年間に増加傾向にある。
本稿では、FERタスクのための新しいアーキテクチャを提案し、ドメイン識別損失正規化が学習プロセスに与える影響について検討する。
論文 参考訳(メタデータ) (2021-06-02T20:58:24Z) - EEG-based Texture Roughness Classification in Active Tactile Exploration
with Invariant Representation Learning Networks [8.021411285905849]
複数の皮質脳領域は、感覚運動処理中の感覚認識、知覚、運動実行に責任がある。
能動的な触覚探査において、粗さレベルで異なるテクスチャー表面を識別することが私たちの主な目的です。
我々は、異なるテクスチャ面のEEGに基づく分類を行う逆不変表現学習ニューラルネットワークアーキテクチャを用いる。
論文 参考訳(メタデータ) (2021-02-17T19:07:13Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。