論文の概要: DementiaBank-Emotion: A Multi-Rater Emotion Annotation Corpus for Alzheimer's Disease Speech (Version 1.0)
- arxiv url: http://arxiv.org/abs/2602.04247v1
- Date: Wed, 04 Feb 2026 06:13:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.398213
- Title: DementiaBank-Emotion: A Multi-Rater Emotion Annotation Corpus for Alzheimer's Disease Speech (Version 1.0)
- Title(参考訳): DementiaBank-Emotion: Alzheimer's Disease Speech (Version 1.0)
- Authors: Cheonkam Jeong, Jessica Liao, Audrey Lu, Yutong Song, Christopher Rashidian, Donna Krogh, Erik Krogh, Mahkameh Rasouli, Jung-Ah Lee, Nikil Dutt, Lisa M Gibbs, David Sultzer, Julie Rousseau, Jocelyn Ludlow, Margaret Galvez, Alexander Nuth, Chet Khay, Sabine Brunswicker, Adeline Nyamathi,
- Abstract要約: DementiaBank-Emotionはアルツハイマー病(AD)音声に対する最初のマルチラター感情アノテーションコーパスである。
Ekmanの6つの基本的な感情と中立性のための108人の話者からの1,492の発話を注釈し、AD患者は健康的なコントロールよりもはるかに非中立的な感情を表現していることがわかった。
- 参考スコア(独自算出の注目度): 26.217997112551448
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present DementiaBank-Emotion, the first multi-rater emotion annotation corpus for Alzheimer's disease (AD) speech. Annotating 1,492 utterances from 108 speakers for Ekman's six basic emotions and neutral, we find that AD patients express significantly more non-neutral emotions (16.9%) than healthy controls (5.7%; p < .001). Exploratory acoustic analysis suggests a possible dissociation: control speakers showed substantial F0 modulation for sadness (Delta = -3.45 semitones from baseline), whereas AD speakers showed minimal change (Delta = +0.11 semitones; interaction p = .023), though this finding is based on limited samples (sadness: n=5 control, n=15 AD) and requires replication. Within AD speech, loudness differentiates emotion categories, indicating partially preserved emotion-prosody mappings. We release the corpus, annotation guidelines, and calibration workshop materials to support research on emotion recognition in clinical populations.
- Abstract(参考訳): DementiaBank-Emotionはアルツハイマー病(AD)音声に対する最初のマルチラター感情アノテーションコーパスである。
Ekmanの6つの基本的な感情と中立性のための108人の話者からの1,492の発話を注釈づけると、AD患者は健康的なコントロール(5.7%; p < .001)よりもはるかに非中立的な感情(16.9%)を表現している。
一方、AD話者は最小限の変化(Delta = +0.11 セミトン、相互作用 p = 023)を示したが、この発見は限られたサンプル(sadness: n=5 コントロール、n=15 AD)に基づいており、複製を必要とする。
AD音声の中では、大声は感情カテゴリーを区別し、部分的に保存された感情-韻律マッピングを示す。
臨床における感情認識研究を支援するためのコーパス,ガイドライン,校正ワークショップ資料を公開する。
関連論文リスト
- DiEmo-TTS: Disentangled Emotion Representations via Self-Supervised Distillation for Cross-Speaker Emotion Transfer in Text-to-Speech [49.128847336227636]
音声合成における話者間感情伝達は、正確な感情モデリングのための話者非依存感情埋め込みの抽出に依存する。
本研究では,感情情報の損失を最小限に抑え,話者のアイデンティティを保持する自己教師型蒸留法であるDiEmo-TTSを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:47:39Z) - UDDETTS: Unifying Discrete and Dimensional Emotions for Controllable Emotional Text-to-Speech [61.989360995528905]
制御可能な感情的TTSのための離散的感情と次元的感情を統一する普遍的なフレームワークであるUDDETTSを提案する。
このモデルは、次元的感情記述のための解釈可能なArousal-Dominance-Valence(ADV)空間を導入し、離散的な感情ラベルまたは非線形に定量化されたADV値によって駆動される感情制御をサポートする。
実験の結果, UDDETTSは3次元の線形感情制御を実現し, エンドツーエンドの感情音声合成能力に優れていた。
論文 参考訳(メタデータ) (2025-05-15T12:57:19Z) - Personality-affected Emotion Generation in Dialog Systems [67.40609683389947]
ダイアログシステムに与えられた個性に基づいて感情を生成する新しいタスクであるパーソナリティ影響感情生成を提案する。
本課題の課題,すなわち,(1)個性と感情的要因を不均一に統合し,(2)対話場面における多粒性感情情報を抽出する。
その結果,感情生成性能はマクロF1では13%,重み付きF1では5%向上することが示唆された。
論文 参考訳(メタデータ) (2024-04-03T08:48:50Z) - Emotion Granularity from Text: An Aggregate-Level Indicator of Mental Health [25.166884750592175]
心理学において、個人の感情概念を区別する能力の変化を感情の粒度と呼ぶ。
高い感情の粒度は、より良い精神と身体の健康と結びついている。
低感情の粒度は、不適応な感情制御戦略や健康状態の悪化と結びついている。
論文 参考訳(メタデータ) (2024-03-04T18:12:10Z) - Language and Mental Health: Measures of Emotion Dynamics from Text as
Linguistic Biosocial Markers [30.656554495536618]
本研究では,ツィート感情動態とメンタルヘルス障害との関連について検討した。
調査対象のUEDメトリクスはそれぞれ,ユーザの自己開示診断によって異なることがわかった。
この研究は、感情力学に関連する言語的手がかりが、精神疾患のバイオ社会マーカーとして重要な役割を担っていることを示す重要な初期の証拠を提供する。
論文 参考訳(メタデータ) (2023-10-26T13:00:26Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Speech Synthesis with Mixed Emotions [77.05097999561298]
異なる感情の音声サンプル間の相対的な差を測定する新しい定式化を提案する。
次に、私たちの定式化を、シーケンスからシーケンスまでの感情的なテキストから音声へのフレームワークに組み込む。
実行時に、感情属性ベクトルを手動で定義し、所望の感情混合を生成するためにモデルを制御する。
論文 参考訳(メタデータ) (2022-08-11T15:45:58Z) - Bridging the prosody GAP: Genetic Algorithm with People to efficiently
sample emotional prosody [1.2891210250935146]
GAP(Genetic Algorithm with People)は、人間の意思決定と生産を遺伝的アルゴリズムに統合する。
我々は,GAPが感情音声空間から効率的にサンプリングし,幅広い感情を捕捉できることを実証した。
GAPは言語に依存しず、大規模なクラウドソーシングをサポートしており、将来の大規模クロスカルチャー研究をサポートすることができる。
論文 参考訳(メタデータ) (2022-05-10T11:45:15Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。