論文の概要: Cross-Demographic Portability of Deep NLP-Based Depression Models
- arxiv url: http://arxiv.org/abs/2412.19070v1
- Date: Thu, 26 Dec 2024 05:54:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:08.586141
- Title: Cross-Demographic Portability of Deep NLP-Based Depression Models
- Title(参考訳): 深部NLP型抑うつモデルのクロスデモグラフィーポータビリティ
- Authors: Tomek Rutowski, Elizabeth Shriberg, Amir Harati, Yang Lu, Ricardo Oliveira, Piotr Chlebek,
- Abstract要約: ディープラーニングモデルは、行動健康における現実世界の応用への関心が急速に高まっている。
現在の文献における重要なギャップは、そのようなモデルがいかに異なる人口に対して一般化されるかである。
自然言語処理(NLP)に基づくモデルを用いて,2つの異なるコーパス間の可搬性について検討した。
- 参考スコア(独自算出の注目度): 7.6109649792432315
- License:
- Abstract: Deep learning models are rapidly gaining interest for real-world applications in behavioral health. An important gap in current literature is how well such models generalize over different populations. We study Natural Language Processing (NLP) based models to explore portability over two different corpora highly mismatched in age. The first and larger corpus contains younger speakers. It is used to train an NLP model to predict depression. When testing on unseen speakers from the same age distribution, this model performs at AUC=0.82. We then test this model on the second corpus, which comprises seniors from a retirement community. Despite the large demographic differences in the two corpora, we saw only modest degradation in performance for the senior-corpus data, achieving AUC=0.76. Interestingly, in the senior population, we find AUC=0.81 for the subset of patients whose health state is consistent over time. Implications for demographic portability of speech-based applications are discussed.
- Abstract(参考訳): ディープラーニングモデルは、行動健康における現実世界の応用への関心が急速に高まっている。
現在の文献における重要なギャップは、そのようなモデルがいかに異なる人口に対して一般化されるかである。
自然言語処理(NLP)に基づくモデルを用いて,2つの異なるコーパス間の可搬性について検討した。
第1および第2のコーパスは、若い話者を含む。
うつ病を予測するためにNLPモデルを訓練するために使用される。
同じ年齢分布から未知の話者をテストする場合、このモデルはAUC=0.82で動作する。
次に、このモデルを退職者コミュニティの高齢者からなる第2コーパスでテストする。
両コーパスの人口統計学的差は大きいが, 上コーパスデータではわずかに低下し, AUC=0.76が得られた。
興味深いことに、高齢者では、健康状態が時間とともに一定である患者のサブセットに対してAUC=0.81が見つかる。
音声ベースのアプリケーションにおける人口動態の可搬性について論じる。
関連論文リスト
- Lost in Inference: Rediscovering the Role of Natural Language Inference for Large Language Models [36.983534612895156]
近年、自然言語理解(NLU)を評価する一般的な方法は、自然言語推論(NLI)タスクを実行するモデルの能力を検討することである。
本稿では,異なるスケールの6つのモデルにわたる5つの異なるNLIベンチマークに焦点を当てる。
我々は,異なるサイズと品質のモデルを識別できるかどうか,トレーニング中にその精度がどのように発達するかを検討する。
論文 参考訳(メタデータ) (2024-11-21T13:09:36Z) - An Assessment on Comprehending Mental Health through Large Language
Models [2.7044181783627086]
成人の20%以上が、生涯に少なくとも1つの精神障害に遭遇する可能性がある。
本研究では,このギャップに対処する上で,大規模言語モデルの初期評価を行う。
DAIC-WOZデータセットの結果から、BERTやXLNetのようなトランスフォーマーベースのモデルは、大きな言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-01-09T14:50:04Z) - Fine-tuning Language Models for Factuality [96.5203774943198]
大規模な事前訓練型言語モデル(LLM)は、しばしば伝統的な検索エンジンの代替として、広く使われるようになった。
しかし、言語モデルは説得力のあるが事実的に不正確な主張をしがちである(しばしば「幻覚」と呼ばれる)。
本研究では,人間のラベル付けなしに,より現実的な言語モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-14T18:59:15Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - Cross-Model Comparative Loss for Enhancing Neuronal Utility in Language
Understanding [82.46024259137823]
幅広いタスクに対するクロスモデル比較損失を提案する。
3つの異なるNLUタスクから14のデータセットに対する広範な実験により比較損失の普遍的有効性を示す。
論文 参考訳(メタデータ) (2023-01-10T03:04:27Z) - Training Trajectories of Language Models Across Scales [99.38721327771208]
言語モデルのスケールアップは、前例のないパフォーマンス向上につながった。
異なるサイズの言語モデルは事前学習中にどのように学習するか?
より大きな言語モデルはなぜ望ましい振る舞いを示すのか?
論文 参考訳(メタデータ) (2022-12-19T19:16:29Z) - Neural Language Models are not Born Equal to Fit Brain Data, but
Training Helps [75.84770193489639]
音声ブックを聴く被験者の機能的磁気共鳴イメージングの時間軸予測に及ぼすテスト損失,トレーニングコーパス,モデルアーキテクチャの影響について検討した。
各モデルの訓練されていないバージョンは、同じ単語をまたいだ脳反応の類似性を捉えることで、脳内のかなりの量のシグナルをすでに説明していることがわかりました。
ニューラル言語モデルを用いたヒューマン・ランゲージ・システムの説明を目的とした今後の研究の実践を提案する。
論文 参考訳(メタデータ) (2022-07-07T15:37:17Z) - DDKtor: Automatic Diadochokinetic Speech Analysis [13.68342426889044]
本稿では,無表記・無転写音声から子音と母音を自動的に分離する2つのディープニューラルネットワークモデルを提案する。
若い健康な個人のデータセットの結果から、LSTMモデルは現在の最先端システムよりも優れています。
LSTMモデルは、パーキンソン病データセットの未確認高齢者を対象に、訓練されたヒトアノテータに匹敵する結果を提示する。
論文 参考訳(メタデータ) (2022-06-29T13:34:03Z) - Self-supervised models of audio effectively explain human cortical
responses to speech [71.57870452667369]
我々は、自己教師型音声表現学習の進歩に乗じて、人間の聴覚システムの最先端モデルを作成する。
これらの結果から,ヒト大脳皮質における音声処理の異なる段階に関連する情報の階層構造を,自己教師型モデルで効果的に把握できることが示唆された。
論文 参考訳(メタデータ) (2022-05-27T22:04:02Z) - ML-Based Analysis to Identify Speech Features Relevant in Predicting
Alzheimer's Disease [0.0]
アルツハイマー病(AD)は世界中で約5000万人に影響を及ぼし、世界的な死因の1つとなっている。
MLモデルとニューラルネットワークの両方をトレーニングして、参加者の音声パターンに基づいて予測と分類を行いました。
論文 参考訳(メタデータ) (2021-10-25T15:00:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。