論文の概要: EmoHeal: An End-to-End System for Personalized Therapeutic Music Retrieval from Fine-grained Emotions
- arxiv url: http://arxiv.org/abs/2509.15986v1
- Date: Fri, 19 Sep 2025 13:52:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.188035
- Title: EmoHeal: An End-to-End System for Personalized Therapeutic Music Retrieval from Fine-grained Emotions
- Title(参考訳): EmoHeal: 微粒な感情から個人化された治療音楽検索のためのエンド・ツー・エンドシステム
- Authors: Xinchen Wan, Jinhua Liang, Huan Zhang,
- Abstract要約: EmoHealは、パーソナライズされた3段階の支援的な物語を提供するエンドツーエンドシステムである。
Healは、微調整されたXLM-RoBERTaモデルを用いて、ユーザテキストから27のきめ細かい感情を検出する。
CLAMP3モデルを使用してオーディオヴィジュアルコンテンツを検索し、ユーザを現在の状態からより穏やかな状態へ誘導する。
- 参考スコア(独自算出の注目度): 10.221364450537944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing digital mental wellness tools often overlook the nuanced emotional states underlying everyday challenges. For example, pre-sleep anxiety affects more than 1.5 billion people worldwide, yet current approaches remain largely static and "one-size-fits-all", failing to adapt to individual needs. In this work, we present EmoHeal, an end-to-end system that delivers personalized, three-stage supportive narratives. EmoHeal detects 27 fine-grained emotions from user text with a fine-tuned XLM-RoBERTa model, mapping them to musical parameters via a knowledge graph grounded in music therapy principles (GEMS, iso-principle). EmoHeal retrieves audiovisual content using the CLAMP3 model to guide users from their current state toward a calmer one ("match-guide-target"). A within-subjects study (N=40) demonstrated significant supportive effects, with participants reporting substantial mood improvement (M=4.12, p<0.001) and high perceived emotion recognition accuracy (M=4.05, p<0.001). A strong correlation between perceived accuracy and therapeutic outcome (r=0.72, p<0.001) validates our fine-grained approach. These findings establish the viability of theory-driven, emotion-aware digital wellness tools and provides a scalable AI blueprint for operationalizing music therapy principles.
- Abstract(参考訳): 既存のデジタルメンタルウェルネスツールは、日々の課題の根底にある微妙な感情状態を見落としていることが多い。
例えば、睡眠前の不安は全世界で15億人以上に影響を与えるが、現在のアプローチは大半が静的であり、個々のニーズに適応できない「オールワンサイズ」である。
本研究では,パーソナライズされた3段階の支援的な物語を提供するエンドツーエンドシステムであるEmoHealを紹介する。
EmoHealは、微調整されたXLM-RoBERTaモデルでユーザテキストから27のきめ細かい感情を検出し、それらを音楽療法原理(GEMS, iso-principle)に基づく知識グラフで音楽パラメータにマッピングする。
EmoHealはCLAMP3モデルを使用してオーディオヴィジュアルコンテンツを検索し、ユーザーを現在の状態からより穏やかなコンテンツ("match-guide-target")へと誘導する。
被験者は気分改善(M=4.12,p<0.001)と高い認知的感情認識精度(M=4.05,p<0.001)を報告した。
認識精度と治療成績(r=0.72, p<0.001)の間には強い相関関係がみられた。
これらの知見は、理論駆動型感情認識型デジタルウェルネスツールの実用性を確立し、音楽療法の原則を運用するためのスケーラブルなAIブループリントを提供する。
関連論文リスト
- Emotion Recognition in Older Adults with Quantum Machine Learning and Wearable Sensors [0.5188841610098435]
生理的信号からのみ感情状態を推定できる可能性について検討した。
従来の機械学習アルゴリズムとハイブリッド量子機械学習(QML)手法のパフォーマンス比較を行う。
その結果、量子化SVMは、すべての感情カテゴリで古典的な分類性能を上回ることが示唆された。
論文 参考訳(メタデータ) (2025-07-10T21:12:12Z) - Emotion Detection in Older Adults Using Physiological Signals from Wearable Sensors [0.40964539027092906]
本研究は,ウェアラブルセンサから得られる生理的信号のみを用いた感情識別へのエッジベース非邪魔的アプローチについて検討する。
本研究の目的は、カメラや侵入型顔分析を必要とせずに、単に生理的センサーデータを用いて、感情認識がいかに効果的に達成できるかを検討することである。
本手法の有効性を検証し,現実の環境下でのプライバシー保護と効率的な感情認識システムの実現方法について検討した。
論文 参考訳(メタデータ) (2025-07-10T20:59:25Z) - CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - Empaths at SemEval-2025 Task 11: Retrieval-Augmented Approach to Perceived Emotions Prediction [83.88591755871734]
EmoRAGは、SemEval-2025 Task 11, Subtask A: Multi-label Emotion Detectionのためのテキスト中の知覚感情を検出するように設計されたシステムである。
我々は、与えられたテキストスニペットから話者の知覚された感情を予測することに集中し、喜び、悲しみ、恐怖、怒り、驚き、嫌悪感などの感情をラベル付けする。
論文 参考訳(メタデータ) (2025-06-04T19:41:24Z) - Enhancing Speech Emotion Recognition with Graph-Based Multimodal Fusion and Prosodic Features for the Speech Emotion Recognition in Naturalistic Conditions Challenge at Interspeech 2025 [64.59170359368699]
自然条件課題におけるInterSPEECH 2025音声感情認識のための頑健なシステムを提案する。
提案手法は,最先端の音声モデルと韻律的・スペクトル的手法によって強化されたテキスト特徴を組み合わせる。
論文 参考訳(メタデータ) (2025-06-02T13:46:02Z) - Modelling Emotions in Face-to-Face Setting: The Interplay of Eye-Tracking, Personality, and Temporal Dynamics [1.4645774851707578]
本研究では、視線追跡データ、時間的ダイナミクス、性格特性を統合することで、知覚と知覚の両方の感情の検出を大幅に向上させる方法について述べる。
本研究は,将来の情緒コンピューティングと人間エージェントシステムの設計を示唆するものである。
論文 参考訳(メタデータ) (2025-03-18T13:15:32Z) - Optimizing Emotion Recognition with Wearable Sensor Data: Unveiling Patterns in Body Movements and Heart Rate through Random Forest Hyperparameter Tuning [0.0]
調査では、スマートウォッチと心拍モニターを装着した50人の参加者が250メートルの歩行を完了した。
被験者の感情状態はPANASアンケートを用いて評価した。
研究は、歩く前に映画を見ること、歩く前に音楽を聴くこと、歩きながら音楽を聴くことの3つのシナリオを精査した。
論文 参考訳(メタデータ) (2024-07-28T10:48:42Z) - Affective Idiosyncratic Responses to Music [63.969810774018775]
本研究では,中国社会音楽プラットフォーム上での403万以上のリスナーコメントから,音楽に対する感情応答を測定する手法を開発した。
我々は,聴取者の感情反応を促進する音楽的,歌詞的,文脈的,人口動態的,精神的健康的効果をテストした。
論文 参考訳(メタデータ) (2022-10-17T19:57:46Z) - Personalized Emotion Detection using IoT and Machine Learning [6.09170287691728]
本稿では、患者の感情、特に自閉症スペクトラム障害を追跡する非侵襲的IoTシステムを提案する。
安価なセンサーとクラウドコンピューティングサービスによって、個人の心拍数をモニターし分析し、異なる感情に対する1分間の汗と心拍の変化の影響を研究する。
提案システムは、最大92%の精度で機械学習アルゴリズムを用いて、正しい感情を検出することができる。
論文 参考訳(メタデータ) (2022-09-14T07:36:03Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。