論文の概要: Large Language Models for Mental Health: A Multilingual Evaluation
- arxiv url: http://arxiv.org/abs/2602.02440v1
- Date: Mon, 02 Feb 2026 18:34:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.364007
- Title: Large Language Models for Mental Health: A Multilingual Evaluation
- Title(参考訳): メンタルヘルスのための大規模言語モデル:多言語評価
- Authors: Nishat Raihan, Sadiya Sayara Chowdhury Puspo, Ana-Maria Bucur, Stevie Chancellor, Marcos Zampieri,
- Abstract要約: 各種言語における8つのメンタルヘルスデータセットに基づいて,プロプライエタリでオープンソースのLarge Language Models (LLMs)を評価した。
我々は,従来のNLPベースラインとゼロショット,少数ショット,微調整設定におけるLCM性能を比較した。
LLMの性能に影響を及ぼすために,言語家族やタイポロジーにまたがる翻訳品質を評価した。
- 参考スコア(独自算出の注目度): 17.886031066436292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have remarkable capabilities across NLP tasks. However, their performance in multilingual contexts, especially within the mental health domain, has not been thoroughly explored. In this paper, we evaluate proprietary and open-source LLMs on eight mental health datasets in various languages, as well as their machine-translated (MT) counterparts. We compare LLM performance in zero-shot, few-shot, and fine-tuned settings against conventional NLP baselines that do not employ LLMs. In addition, we assess translation quality across language families and typologies to understand its influence on LLM performance. Proprietary LLMs and fine-tuned open-source LLMs achieve competitive F1 scores on several datasets, often surpassing state-of-the-art results. However, performance on MT data is generally lower, and the extent of this decline varies by language and typology. This variation highlights both the strengths of LLMs in handling mental health tasks in languages other than English and their limitations when translation quality introduces structural or lexical mismatches.
- Abstract(参考訳): 大規模言語モデル(LLM)は、NLPタスクにまたがる優れた機能を持つ。
しかし、多言語的文脈、特にメンタルヘルス領域におけるそれらのパフォーマンスは、徹底的に調査されていない。
本稿では,各種言語における8つのメンタルヘルスデータセットと,その機械翻訳(MT)データを用いて,プロプライエタリかつオープンソースのLSMを評価する。
LLMを使わない従来のNLPベースラインに対して、ゼロショット、少数ショット、微調整の設定でLLMの性能を比較する。
さらに,LLMの性能に与える影響を理解するために,言語家族やタイポロジー間の翻訳品質を評価する。
プロプライエタリなLLMと微調整されたオープンソースLLMは、いくつかのデータセットで競合するF1スコアを達成し、しばしば最先端の結果を上回っている。
しかし、MTデータの性能は概して低く、言語や類型によってその減少の程度は様々である。
この変異は、英語以外の言語におけるメンタルヘルスタスクを扱うLLMの強みと、翻訳品質が構造的または語彙的ミスマッチを導入する際の制限の両方を強調している。
関連論文リスト
- It's All About In-Context Learning! Teaching Extremely Low-Resource Languages to LLMs [16.130133009174124]
極端に低リソースな言語、特に稀なスクリプトで書かれた言語は、大きな言語モデル(LLM)によってほとんどサポートされていない。
本稿では,LLMがテキスト内学習(ICL)によって純粋にそのような言語を習得できるかどうかを,補助的アライメント信号を用いて解析し,パラメータ効率のよい微調整(PEFT)と比較した。
我々は3つの最先端多言語 LLM にまたがる20の非表現言語を評価する。
論文 参考訳(メタデータ) (2025-08-26T14:51:10Z) - Language Ranker: A Metric for Quantifying LLM Performance Across High and Low-Resource Languages [48.40607157158246]
大規模言語モデル(LLM)は、英語、ドイツ語、フランス語のような高リソース言語で、低リソース言語の能力は依然として不十分である。
内部表現を用いたLLM性能に基づいて,言語をベンチマークし,ランク付けするための固有測度であるLanguage Rankerを提案する。
分析の結果,高リソース言語は英語との類似度が高く,性能が優れ,低リソース言語は類似度が低いことがわかった。
論文 参考訳(メタデータ) (2024-04-17T16:53:16Z) - Adapting Large Language Models for Document-Level Machine Translation [46.370862171452444]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクを大幅に進歩させた。
近年の研究では、中程度のLLMはタスク固有の微調整後、より大きなLLMよりも優れていることが示されている。
本研究では,特定の言語対に対する文書レベルの機械翻訳(DocMT)にLLMを適用することに焦点を当てた。
論文 参考訳(メタデータ) (2024-01-12T09:29:13Z) - Don't Trust ChatGPT when Your Question is not in English: A Study of
Multilingual Abilities and Types of LLMs [16.770697902481107]
大規模言語モデル(LLM)は、例外的な自然言語理解能力を示している。
本論文では,多言語環境下でのLLMの性能格差を体系的に評価する方法を提案する。
その結果,GPTは多言語設定において高い翻訳的振る舞いを示すことがわかった。
論文 参考訳(メタデータ) (2023-05-24T02:05:03Z) - Multilingual Machine Translation with Large Language Models: Empirical Results and Analysis [103.89753784762445]
大規模言語モデル(LLM)は多言語機械翻訳(MMT)の処理において顕著な可能性を示した。
本稿では, MMT における LLM の利点と課題を体系的に検討する。
また,ChatGPTとGPT-4を含む8つのLLMを徹底的に評価した。
論文 参考訳(メタデータ) (2023-04-10T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。