論文の概要: Emotion Recognition from Skeleton Data: A Comprehensive Survey
- arxiv url: http://arxiv.org/abs/2507.18026v1
- Date: Thu, 24 Jul 2025 01:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.822642
- Title: Emotion Recognition from Skeleton Data: A Comprehensive Survey
- Title(参考訳): 骨格データからの感情認識:包括的調査
- Authors: Haifeng Lu, Jiuyi Chen, Zhen Zhang, Ruida Liu, Runhao Zeng, Xiping Hu,
- Abstract要約: 身体の動きによる感情認識は、従来の方法に代わる魅力的でプライバシー保護の手段として現れてきた。
近年の3Dスケルトン取得技術とポーズ推定アルゴリズムは, 全身運動に基づく感情認識の実現可能性を大幅に向上させた。
- 参考スコア(独自算出の注目度): 13.443333210819555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Emotion recognition through body movements has emerged as a compelling and privacy-preserving alternative to traditional methods that rely on facial expressions or physiological signals. Recent advancements in 3D skeleton acquisition technologies and pose estimation algorithms have significantly enhanced the feasibility of emotion recognition based on full-body motion. This survey provides a comprehensive and systematic review of skeleton-based emotion recognition techniques. First, we introduce psychological models of emotion and examine the relationship between bodily movements and emotional expression. Next, we summarize publicly available datasets, highlighting the differences in data acquisition methods and emotion labeling strategies. We then categorize existing methods into posture-based and gait-based approaches, analyzing them from both data-driven and technical perspectives. In particular, we propose a unified taxonomy that encompasses four primary technical paradigms: Traditional approaches, Feat2Net, FeatFusionNet, and End2EndNet. Representative works within each category are reviewed and compared, with benchmarking results across commonly used datasets. Finally, we explore the extended applications of emotion recognition in mental health assessment, such as detecting depression and autism, and discuss the open challenges and future research directions in this rapidly evolving field.
- Abstract(参考訳): 身体の動きによる感情認識は、表情や生理的信号に依存する伝統的な方法に代えて、魅力的でプライバシー保護の手段として現れてきた。
近年の3Dスケルトン取得技術とポーズ推定アルゴリズムは, 全身運動に基づく感情認識の実現可能性を大幅に向上させた。
本調査は骨格に基づく感情認識技術に関する包括的かつ体系的なレビューを提供する。
まず,感情の心理モデルを導入し,身体運動と感情表現の関係を検討する。
次に、利用可能なデータセットを要約し、データ取得方法と感情ラベル戦略の違いを強調した。
次に、既存の手法を姿勢に基づくアプローチと歩行に基づくアプローチに分類し、データ駆動と技術の両方の観点から分析する。
特に、従来のアプローチ、Feat2Net、FeatFusionNet、End2EndNetの4つの主要な技術的パラダイムを含む統一された分類法を提案する。
各カテゴリの代表的な作業はレビューされ、一般的に使用されるデータセットのベンチマーク結果として比較される。
最後に、うつ病や自閉症の検出などのメンタルヘルスアセスメントにおける感情認識のさらなる応用について検討し、この急速に発展する分野におけるオープンな課題と今後の研究方向性について議論する。
関連論文リスト
- Bridging Cognition and Emotion: Empathy-Driven Multimodal Misinformation Detection [56.644686934050576]
ソーシャルメディアは情報発信の主流となっているが、誤報の急速な拡散を助長している。
従来の誤報検出法は主に表面的な特徴に焦点を合わせ、伝播過程における人間の共感の重要な役割を見落としている。
著者と読者の両方の視点から誤情報を分析するために、認知的・感情的共感を統合したデュアル・アスペクト・共感フレームワーク(DAE)を提案する。
論文 参考訳(メタデータ) (2025-04-24T07:48:26Z) - A Comprehensive Survey on EEG-Based Emotion Recognition: A Graph-Based Perspective [12.712722204034606]
脳波に基づく感情認識は、人間の脳の感情パターンに直感的に反応することができる。
重要なトレンドは、そのような依存をカプセル化するグラフの適用である。
脳波に基づく感情認識に感情関連グラフを構築するための総合的なレビューやチュートリアルは存在しない。
論文 参考訳(メタデータ) (2024-08-12T09:29:26Z) - Generative Technology for Human Emotion Recognition: A Scope Review [11.578408396744237]
本調査は,2024年6月までに320以上の研究論文を総合的に分析し,既存の文献のギャップを埋めることを目的としている。
異なる生成モデルと一般的に使用されるデータセットの数学的原理を導入する。
様々なモダリティに基づいて、生成技術がどのように感情認識に対処するかを詳細に分析する。
論文 参考訳(メタデータ) (2024-07-04T05:22:55Z) - A Survey on Physiological Signal Based Emotion Recognition [1.52292571922932]
生理的信号に基づく感情認識に関する既存のレビュー論文は、感情認識のワークフローに関わる通常のステップのみを調査した。
本稿では、物体間データ分散が感情認識に与える影響、感情認識のための重要なデータアノテーション技術とその比較、各生理的信号に対するデータ前処理技術、感情認識モデルの一般化を改善するデータ分割技術および異なるマルチモーダル融合技術とその比較について述べる。
論文 参考訳(メタデータ) (2022-05-20T23:59:44Z) - Affect-DML: Context-Aware One-Shot Recognition of Human Affect using
Deep Metric Learning [29.262204241732565]
既存の方法は、すべての関心の感情に注釈付きトレーニングの例として優先順位が与えられると仮定している。
我々は、文脈における感情のワンショット認識を概念化し、単一のサポートサンプルからより細かい粒子レベルの人間の影響状態を認識することを目的とした新しい問題である。
モデルの全変種は、ランダムなベースラインよりも明らかに優れており、セマンティックシーンのコンテキストを活用することで、学習された表現を一貫して改善している。
論文 参考訳(メタデータ) (2021-11-30T10:35:20Z) - Affective Image Content Analysis: Two Decades Review and New
Perspectives [132.889649256384]
我々は,過去20年間の情緒的イメージコンテンツ分析(AICA)の発展を包括的にレビューする。
我々は、感情的ギャップ、知覚主観性、ラベルノイズと欠如という3つの主要な課題に関して、最先端の手法に焦点を当てる。
画像の内容やコンテキスト理解,グループ感情クラスタリング,ビューアーとイメージのインタラクションなど,今後の課題や研究の方向性について論じる。
論文 参考訳(メタデータ) (2021-06-30T15:20:56Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - Pose-based Body Language Recognition for Emotion and Psychiatric Symptom
Interpretation [75.3147962600095]
通常のRGBビデオから始まるボディーランゲージに基づく感情認識のための自動フレームワークを提案する。
心理学者との連携により,精神症状予測の枠組みを拡張した。
提案されたフレームワークの特定のアプリケーションドメインは限られた量のデータしか供給しないため、フレームワークは小さなトレーニングセットで動作するように設計されている。
論文 参考訳(メタデータ) (2020-10-30T18:45:16Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。