論文の概要: Cost-effective Models for Detecting Depression from Speech
- arxiv url: http://arxiv.org/abs/2302.09214v1
- Date: Sat, 18 Feb 2023 02:46:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 19:50:28.071544
- Title: Cost-effective Models for Detecting Depression from Speech
- Title(参考訳): 音声の抑うつ検出のための費用対効果モデル
- Authors: Mashrura Tasnim and Jekaterina Novikova
- Abstract要約: うつ病は最も一般的な精神障害であり、世界中で障害や自殺の原因と考えられている。
ヒトの音声におけるうつ病の徴候を検出することができるシステムは、この疾患に苦しむ個人に対して、タイムリーかつ効果的なメンタルヘルスの確保に寄与することができる。
- 参考スコア(独自算出の注目度): 4.269268432906194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Depression is the most common psychological disorder and is considered as a
leading cause of disability and suicide worldwide. An automated system capable
of detecting signs of depression in human speech can contribute to ensuring
timely and effective mental health care for individuals suffering from the
disorder. Developing such automated system requires accurate machine learning
models, capable of capturing signs of depression. However, state-of-the-art
models based on deep acoustic representations require abundant data, meticulous
selection of features, and rigorous training; the procedure involves enormous
computational resources. In this work, we explore the effectiveness of two
different acoustic feature groups - conventional hand-curated and deep
representation features, for predicting the severity of depression from speech.
We explore the relevance of possible contributing factors to the models'
performance, including gender of the individual, severity of the disorder,
content and length of speech. Our findings suggest that models trained on
conventional acoustic features perform equally well or better than the ones
trained on deep representation features at significantly lower computational
cost, irrespective of other factors, e.g. content and length of speech, gender
of the speaker and severity of the disorder. This makes such models a better
fit for deployment where availability of computational resources is restricted,
such as real time depression monitoring applications in smart devices.
- Abstract(参考訳): うつ病は最も一般的な精神障害であり、世界中で障害や自殺の原因と考えられている。
人間の発話中のうつ病の兆候を検知できる自動システムは、障害に苦しむ個人に対するタイムリーで効果的なメンタルヘルスケアの確保に寄与する。
このような自動システムの開発には正確な機械学習モデルが必要である。
しかし、深い音響表現に基づく最先端のモデルは、豊富なデータ、細心の注意深い特徴の選択、厳密なトレーニングを必要とする。
本研究では,従来の手書き・ディープな表現特徴である2つの音響特徴群の有効性について検討し,抑うつの重症度を予測する。
モデルの性能に寄与する可能性のある要因の関連性について検討し, 個人性, 障害の重症度, 内容, 発話の長さなどについて検討する。
本研究は,従来の音響特徴を訓練したモデルが,音声の内容や長さ,話者の性別,障害の重大度など他の要因に関係なく,計算コストが著しく低い深部表現特徴を訓練したモデルと同等に良好あるいは良好な性能を示すことを示唆する。
これにより、スマートデバイスにおけるリアルタイム不況監視アプリケーションなど、計算リソースの可用性が制限されているデプロイメントに、そのようなモデルが適している。
関連論文リスト
- MentalArena: Self-play Training of Language Models for Diagnosis and Treatment of Mental Health Disorders [59.515827458631975]
メンタルヘルス障害は世界で最も深刻な病気の1つである。
プライバシーに関する懸念は、パーソナライズされた治療データのアクセシビリティを制限する。
MentalArenaは、言語モデルをトレーニングするためのセルフプレイフレームワークである。
論文 参考訳(メタデータ) (2024-10-09T13:06:40Z) - Selfsupervised learning for pathological speech detection [0.0]
音声生成は、様々な神経変性疾患による影響と破壊を受けやすい。
これらの障害は、異常な発声パターンと不正確な調音を特徴とする病的発声を引き起こす。
ニューロタイプ話者とは異なり、言語障害や障害のある患者は、AlexaやSiriなど、さまざまなバーチャルアシスタントにアクセスできない。
論文 参考訳(メタデータ) (2024-05-16T07:12:47Z) - Identification of Cognitive Decline from Spoken Language through Feature
Selection and the Bag of Acoustic Words Model [0.0]
記憶障害の症状の早期発見は、集団の健康確保に重要な役割を担っている。
臨床環境における標準化された音声テストの欠如は、自然音声言語を解析するための自動機械学習技術の開発にますます重点を置いている。
この研究は特徴選択に関するアプローチを示し、ジュネーブの最小音響パラメータセットと相対音声停止から診断に必要な重要な特徴を自動的に選択することを可能にする。
論文 参考訳(メタデータ) (2024-02-02T17:06:03Z) - Empowering Psychotherapy with Large Language Models: Cognitive
Distortion Detection through Diagnosis of Thought Prompting [82.64015366154884]
本研究では,認知的歪み検出の課題について検討し,思考の早期発見(DoT)を提案する。
DoTは、事実と思考を分離するための主観的評価、思考と矛盾する推論プロセスを引き出すための対照的な推論、認知スキーマを要約するスキーマ分析という3つの段階を通して、患者のスピーチの診断を行う。
実験により、DoTは認知的歪み検出のためのChatGPTよりも大幅に改善され、一方で人間の専門家が承認した高品質な合理性を生成することが示された。
論文 参考訳(メタデータ) (2023-10-11T02:47:21Z) - The Relationship Between Speech Features Changes When You Get Depressed:
Feature Correlations for Improving Speed and Performance of Depression
Detection [69.88072583383085]
この研究は、抑うつが音声から抽出した特徴間の相関を変化させることを示す。
このような洞察を用いることで、SVMとLSTMに基づく抑うつ検出器のトレーニング速度と性能を向上させることができる。
論文 参考訳(メタデータ) (2023-07-06T09:54:35Z) - DEPAC: a Corpus for Depression and Anxiety Detection from Speech [3.2154432166999465]
本稿では、うつ病と不安スクリーニングツールの確立したしきい値に基づいてラベル付けされた、心的苦痛分析オーディオデータセットDEPACを紹介する。
この大きなデータセットは、個人ごとの複数の音声タスクと、関連する人口統計情報から構成される。
人間の音声における精神疾患の徴候の同定に有効な,手作業による音響的特徴と言語的特徴からなる特徴セットを提案する。
論文 参考訳(メタデータ) (2023-06-20T12:21:06Z) - Dynamic Graph Representation Learning for Depression Screening with
Transformer [13.551342607089184]
ソーシャルメディアプラットフォームは、メンタルヘルスを調査し、精神疾患の事例を検出する研究機会を提供する。
既存の抑うつ検出手法は,特徴工学への依存と時間的要因の考慮の欠如により制約される。
提案するContrastEgoは,各ユーザを動的時間進化型属性グラフ(ego-network)として扱う。
ContrastEgoは、様々な実験環境におけるすべての有効性指標において、最先端の手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-05-10T20:34:40Z) - Semantic Similarity Models for Depression Severity Estimation [53.72188878602294]
本稿では、ソーシャルメディアの文章に基づいて、個人のうつ病の重症度を研究するための効率的なセマンティックパイプラインを提案する。
我々は,抑うつ症状と重度レベルに対応する代表訓練文の指標に対して意味的ランキングを生成するために,テストユーザ文を使用する。
本手法を2つのRedditベースのベンチマークで評価し,うつ病の重症度を指標として,最先端技術よりも30%改善した。
論文 参考訳(メタデータ) (2022-11-14T18:47:26Z) - Bayesian Networks for the robust and unbiased prediction of depression
and its symptoms utilizing speech and multimodal data [65.28160163774274]
我々は,抑うつ,抑うつ症状,および,胸腺で収集された音声,表情,認知ゲームデータから得られる特徴の関連性を把握するためにベイズ的枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-09T14:48:13Z) - Deep Multi-task Learning for Depression Detection and Prediction in
Longitudinal Data [50.02223091927777]
うつ病は最も多い精神疾患の1つであり、世界中の年齢の何百万人もの人々に影響を与えている。
機械学習技術は、早期介入と治療のためのうつ病の自動検出と予測を可能にしている。
本稿では、この課題に対処するために、2つの補助的タスクでうつ病分類を共同最適化する、新しいディープマルチタスクリカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-05T05:14:14Z) - Multimodal Depression Severity Prediction from medical bio-markers using
Machine Learning Tools and Technologies [0.0]
うつ病は世界中の精神疾患の主要な原因となっている。
近年,うつ病の診断とステージ予測の自動化に行動的手がかりが用いられている。
ラベル付き行動データセットの欠如と、膨大な量のバリエーションが、タスクを達成する上で大きな課題であることが証明されている。
論文 参考訳(メタデータ) (2020-09-11T20:44:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。