論文の概要: Do Smart Glasses Dream of Sentimental Visions? Deep Emotionship Analysis
for Eyewear Devices
- arxiv url: http://arxiv.org/abs/2201.09933v1
- Date: Mon, 24 Jan 2022 19:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 15:44:31.103760
- Title: Do Smart Glasses Dream of Sentimental Visions? Deep Emotionship Analysis
for Eyewear Devices
- Title(参考訳): スマートグラスは感傷的なビジョンを夢見るか?
眼鏡デバイスにおける深い感情分析
- Authors: Yingying Zhao, Yuhu Chang, Yutian Lu, Yujiang Wang, Mingzhi Dong, Qin
Lv, Robert P. Dick, Fan Yang, Tun Lu, Ning Gu, Li Shang
- Abstract要約: EMOShipは、ディープラーニングベースのアイウェアシステムで、着用者の感情状態を自動的に検出し、セマンティックレベルの視覚知覚と関連を同時に分析する。
EMOShipは既存の方法よりも優れた感情認識精度を実現するが、感情の原因についての貴重な理解を提供する。
- 参考スコア(独自算出の注目度): 16.537527944075958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition in smart eyewear devices is highly valuable but
challenging. One key limitation of previous works is that the
expression-related information like facial or eye images is considered as the
only emotional evidence. However, emotional status is not isolated; it is
tightly associated with people's visual perceptions, especially those
sentimental ones. However, little work has examined such associations to better
illustrate the cause of different emotions. In this paper, we study the
emotionship analysis problem in eyewear systems, an ambitious task that
requires not only classifying the user's emotions but also semantically
understanding the potential cause of such emotions. To this end, we devise
EMOShip, a deep-learning-based eyewear system that can automatically detect the
wearer's emotional status and simultaneously analyze its associations with
semantic-level visual perceptions. Experimental studies with 20 participants
demonstrate that, thanks to the emotionship awareness, EMOShip not only
achieves superior emotion recognition accuracy over existing methods (80.2% vs.
69.4%), but also provides a valuable understanding of the cause of emotions.
Pilot studies with 20 participants further motivate the potential use of
EMOShip to empower emotion-aware applications, such as emotionship
self-reflection and emotionship life-logging.
- Abstract(参考訳): スマートメガネデバイスにおける感情認識は、非常に価値があるが、困難である。
前作の重要な制限の1つは、顔や目画像などの表情関連情報だけが感情的な証拠と見なされていることである。
しかし、感情的な状態は孤立せず、人々の視覚感覚、特に感傷的な感覚と密接な関係がある。
しかし、異なる感情の原因をよりよく説明するための研究はほとんど行われていない。
本稿では,ユーザの感情を分類するだけでなく,その潜在的原因を意味的に理解する必要があるアイウェアシステムにおける感情分析問題について検討する。
この目的のために私たちは、着用者の感情状態を自動的に検出し、同時にその意味レベルの視覚知覚との関連を解析できる、ディープラーニングベースの眼鏡システムであるemoshipを考案する。
20人の被験者による実験的研究により、感情認識は、既存の方法(80.2%対69.4%)よりも優れた感情認識精度を達成するだけでなく、感情の原因に関する貴重な理解を提供する。
20人の被験者によるパイロット研究により、感情認識アプリケーション(感情的自己反射や感情的生涯記録など)にエモレーションを活用できる可能性はさらに動機づけられる。
関連論文リスト
- emotion2vec: Self-Supervised Pre-Training for Speech Emotion
Representation [42.29118614670941]
普遍的な音声感情表現モデルである感情2vecを提案する。
感情2vecは自己監督型オンライン蒸留を通じてラベルなしの感情データに基づいて事前訓練される。
最先端の訓練済みユニバーサルモデルや感情スペシャリストモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-23T07:46:55Z) - EmoSet: A Large-scale Visual Emotion Dataset with Rich Attributes [53.95428298229396]
リッチ属性を付加した最初の大規模視覚感情データセットであるEmoSetを紹介する。
EmoSetは合計330万枚の画像で構成され、そのうち118,102枚は人間のアノテーションによって慎重にラベル付けされている。
心理学的な研究によって動機付けられ、感情のカテゴリに加えて、各画像には記述可能な感情特性のセットが注釈付けされている。
論文 参考訳(メタデータ) (2023-07-16T06:42:46Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Using Knowledge-Embedded Attention to Augment Pre-trained Language
Models for Fine-Grained Emotion Recognition [0.0]
我々は,事前学習した自己意識モデルに外部知識を導入することで,微粒な感情認識を改善することに集中する。
結果と誤差解析は,複数のデータセットで過去のモデルより優れていた。
論文 参考訳(メタデータ) (2021-07-31T09:41:44Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Multi-Task Learning and Adapted Knowledge Models for Emotion-Cause
Extraction [18.68808042388714]
感情認識と感情原因検出の両方に共同で取り組むソリューションを提案する。
暗黙的に表現された感情を理解する上で,常識的知識が重要な役割を担っていることを考慮し,新しい手法を提案する。
共通センス推論とマルチタスクフレームワークを含む場合,両タスクのパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-06-17T20:11:04Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。