論文の概要: Deep Learning Models for Automated Classification of Dog Emotional
States from Facial Expressions
- arxiv url: http://arxiv.org/abs/2206.05619v1
- Date: Sat, 11 Jun 2022 21:37:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-19 06:33:28.783957
- Title: Deep Learning Models for Automated Classification of Dog Emotional
States from Facial Expressions
- Title(参考訳): 表情からの犬感情状態の自動分類のためのディープラーニングモデル
- Authors: Tali Boneh-Shitrit and Shir Amir and Annika Bremhorst and Daniel S.
Mills and Stefanie Riemer and Dror Fried and Anna Zamansky
- Abstract要約: 近年のディープラーニング技術を用いて,犬の(肯定的な)期待と(否定的な)フラストレーションを分類した。
我々の知る限りでは、この研究はイヌの感情を自動分類するタスクに最初に取り組むものである。
- 参考スコア(独自算出の注目度): 1.32383730641561
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Similarly to humans, facial expressions in animals are closely linked with
emotional states. However, in contrast to the human domain, automated
recognition of emotional states from facial expressions in animals is
underexplored, mainly due to difficulties in data collection and establishment
of ground truth concerning emotional states of non-verbal users. We apply
recent deep learning techniques to classify (positive) anticipation and
(negative) frustration of dogs on a dataset collected in a controlled
experimental setting. We explore the suitability of different backbones (e.g.
ResNet, ViT) under different supervisions to this task, and find that features
of a self-supervised pretrained ViT (DINO-ViT) are superior to the other
alternatives. To the best of our knowledge, this work is the first to address
the task of automatic classification of canine emotions on data acquired in a
controlled experiment.
- Abstract(参考訳): 人間と同様に、動物の表情は感情状態と密接に関連している。
しかし、人間ドメインとは対照的に、動物における表情からの感情状態の自動認識は、主に非言語ユーザの感情状態に関するデータ収集と基礎的真実の確立の難しさから、過小評価されている。
本研究では,最近の深層学習手法を用いて,犬実験で収集したデータセット上での予測(肯定的)とフラストレーション(否定的)を分類した。
この課題に対する異なる監督下で異なるバックボーン(例えばResNet, ViT)の適合性について検討し、自己監督型事前訓練型ViT(DINO-ViT)の特徴が他の選択肢よりも優れていることを確認する。
我々の知る限り、この研究は、制御実験で得られたデータに基づいて、犬の感情を自動分類するタスクに最初に取り組むものである。
関連論文リスト
- CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Learning Emotional-Blinded Face Representations [77.7653702071127]
感情反応に関連する表情に盲目な2つの顔表現を提案する。
この作業は、個人データ保護に関する新たな国際規則によって動機付けられている。
論文 参考訳(メタデータ) (2020-09-18T09:24:10Z) - Meta Transfer Learning for Emotion Recognition [42.61707533351803]
本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2020-06-23T00:25:28Z) - Context Based Emotion Recognition using EMOTIC Dataset [22.631542327834595]
EMOTIC(エモティック)は, 感情に注意を喚起された人々のイメージのデータセットである。
EMOTICデータセットを使用して、感情認識のためのさまざまなCNNモデルをトレーニングする。
その結果,情緒状態を自動的に認識するためにシーンコンテキストが重要な情報を提供することを示す。
論文 参考訳(メタデータ) (2020-03-30T12:38:50Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。