論文の概要: Bodily expressed emotion understanding through integrating Laban
movement analysis
- arxiv url: http://arxiv.org/abs/2304.02187v1
- Date: Wed, 5 Apr 2023 02:07:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 13:48:46.025532
- Title: Bodily expressed emotion understanding through integrating Laban
movement analysis
- Title(参考訳): ラバン運動分析の統合による身体的感情理解
- Authors: Chenyan Wu, Dolzodmaa Davaasuren, Tal Shafir, Rachelle Tsachor, James
Z. Wang
- Abstract要約: 本研究では,ラベル移動解析に基づく高品質な人体運動要素データセットを開発した。
私たちの長期的な野望は、コンピュータ、心理学、芸能の知識を統合することで、ボディランゲージを通じて感情や精神状態の自動理解と分析を可能にすることです。
- 参考スコア(独自算出の注目度): 7.73546354173679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Body movements carry important information about a person's emotions or
mental state and are essential in daily communication. Enhancing the ability of
machines to understand emotions expressed through body language can improve the
communication of assistive robots with children and elderly users, provide
psychiatric professionals with quantitative diagnostic and prognostic
assistance, and aid law enforcement in identifying deception. This study
develops a high-quality human motor element dataset based on the Laban Movement
Analysis movement coding system and utilizes that to jointly learn about motor
elements and emotions. Our long-term ambition is to integrate knowledge from
computing, psychology, and performing arts to enable automated understanding
and analysis of emotion and mental state through body language. This work
serves as a launchpad for further research into recognizing emotions through
analysis of human movement.
- Abstract(参考訳): 身体運動は、人の感情や精神状態に関する重要な情報を持ち、日々のコミュニケーションに不可欠である。
機械が身体言語を通して表現される感情を理解する能力を高めることで、支援ロボットと子供や高齢者とのコミュニケーションを改善し、定量的診断と予後支援を精神科の専門家に提供する。
本研究では,laban運動分析運動符号化システムに基づく高品質な運動要素データセットを開発し,運動要素と感情について共同で学習する。
私たちの長期的な野望は、コンピュータ、心理学、パフォーマンスアーツからの知識を統合し、ボディランゲージを通じて感情や精神状態の自動理解と分析を可能にすることです。
この研究は、人間の動きの分析を通じて感情を認識するためのさらなる研究のための発射台として機能する。
関連論文リスト
- Emotion Detection through Body Gesture and Face [0.0]
このプロジェクトは、非顔の手がかり、特に手、身体のジェスチャー、ジェスチャーに焦点を当てることによる感情認識の課題に対処する。
従来の感情認識システムは、主に表情分析に依存しており、ボディランゲージを通して伝達される豊かな感情情報を無視することが多い。
このプロジェクトの目的は、マシンが人間の感情をより包括的でニュアンスな方法で解釈し、反応する能力を高めることで、感情コンピューティングの分野に貢献することにある。
論文 参考訳(メタデータ) (2024-07-13T15:15:50Z) - Improving Language Models for Emotion Analysis: Insights from Cognitive Science [0.0]
心理学と認知科学の主な感情理論を提示する。
本稿では,自然言語処理における感情アノテーションの主な手法を紹介する。
感情分析のための言語モデルを改善するための方向性を提案する。
論文 参考訳(メタデータ) (2024-06-11T07:42:13Z) - SemEval-2024 Task 3: Multimodal Emotion Cause Analysis in Conversations [53.60993109543582]
SemEval-2024 Task 3 "Multimodal Emotion Cause Analysis in Conversations" は、会話からすべての感情とそれに対応する原因を抽出することを目的としている。
異なるモダリティ設定の下では、2つのサブタスクから構成される: 会話におけるテキスト感情因果ペア抽出(TECPE)と会話におけるマルチモーダル感情因果ペア抽出(MECPE)である。
本稿では,タスク,データセット,評価設定について紹介し,トップチームのシステムを要約し,参加者の知見について議論する。
論文 参考訳(メタデータ) (2024-05-19T09:59:00Z) - Unlocking the Emotional World of Visual Media: An Overview of the
Science, Research, and Impact of Understanding Emotion [24.920797480215242]
本稿では、視覚メディアにおける感情分析の分野について概観する。
本稿では、感情の心理的基礎と、イメージやビデオからの感情の理解の基盤となる計算原理について論じる。
これはコンピューティングにおける「Holy Grail」研究の問題であり、今後の調査において重要な方向を示すものであると我々は主張する。
論文 参考訳(メタデータ) (2023-07-25T12:47:21Z) - Language-Specific Representation of Emotion-Concept Knowledge Causally
Supports Emotion Inference [44.126681295827794]
この研究は、大規模言語モデル(LLMs)として知られる人工知能の形式を用いて、言語に基づく感情の表現が、新しい状況の感情的意味に関する推論を生成するAIの能力に因果的に寄与するかどうかを評価する。
本研究は,LLMでも知覚モダ表現の欠如による感情の学習が可能であり,言語由来の感情概念知識の感情推論への寄与を強調した。
論文 参考訳(メタデータ) (2023-02-19T14:21:33Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Knowledge Bridging for Empathetic Dialogue Generation [52.39868458154947]
外部知識の不足により、感情的な対話システムは暗黙の感情を知覚し、限られた対話履歴から感情的な対話を学ぶことが困難になる。
本研究では,情緒的対話生成における感情を明確に理解し,表現するために,常識的知識や情緒的語彙的知識などの外部知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-09-21T09:21:52Z) - Sentiment Analysis: Automatically Detecting Valence, Emotions, and Other
Affectual States from Text [31.87319293259599]
本稿では,感情分析研究の概要を概観する。
これには、フィールドの起源、タスクの豊富な風景、課題、使用するメソッドとリソースの調査、アプリケーションが含まれる。
我々は、慎重に前向きに考えることなく、感情分析が有害な結果をもたらす可能性について論じる。
論文 参考訳(メタデータ) (2020-05-25T01:37:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。