論文の概要: Severity Prediction in Mental Health: LLM-based Creation, Analysis,
Evaluation of a Novel Multilingual Dataset
- arxiv url: http://arxiv.org/abs/2409.17397v1
- Date: Wed, 25 Sep 2024 22:14:34 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-29 00:01:07.930781
- Title: Severity Prediction in Mental Health: LLM-based Creation, Analysis,
Evaluation of a Novel Multilingual Dataset
- Title(参考訳): メンタルヘルスにおける重症度予測 : LLMによる創造・分析・分析
新しい多言語データセットの評価
- Authors: Konstantinos Skianis, John Pavlopoulos, A. Seza Do\u{g}ru\"oz
- Abstract要約: 大規模言語モデル(LLM)は、メンタルヘルス支援システムを含む様々な医療分野に統合されつつある。
本稿では、広く使われているメンタルヘルスデータセットを英語から6言語に翻訳した新しい多言語適応法を提案する。
このデータセットは、精神状態を検出し、複数の言語にわたる重症度を評価する上で、LLMのパフォーマンスを総合的に評価することを可能にする。
- 参考スコア(独自算出の注目度): 3.4146360486107987
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly integrated into various medical
fields, including mental health support systems. However, there is a gap in
research regarding the effectiveness of LLMs in non-English mental health
support applications. To address this problem, we present a novel multilingual
adaptation of widely-used mental health datasets, translated from English into
six languages (Greek, Turkish, French, Portuguese, German, and Finnish). This
dataset enables a comprehensive evaluation of LLM performance in detecting
mental health conditions and assessing their severity across multiple
languages. By experimenting with GPT and Llama, we observe considerable
variability in performance across languages, despite being evaluated on the
same translated dataset. This inconsistency underscores the complexities
inherent in multilingual mental health support, where language-specific nuances
and mental health data coverage can affect the accuracy of the models. Through
comprehensive error analysis, we emphasize the risks of relying exclusively on
large language models (LLMs) in medical settings (e.g., their potential to
contribute to misdiagnoses). Moreover, our proposed approach offers significant
cost savings for multilingual tasks, presenting a major advantage for
broad-scale implementation.
- Abstract(参考訳): 大規模言語モデル(LLM)は、メンタルヘルス支援システムを含む様々な医療分野に統合されつつある。
しかし、非英語のメンタルヘルス・サポート・アプリケーションにおけるLSMの有効性についての研究にはギャップがある。
この問題に対処するため、我々は、英語から6つの言語(ギリシャ語、トルコ語、フランス語、ポルトガル語、ドイツ語、フィンランド語)に翻訳された、広く使われているメンタルヘルスデータセットの多言語適応を新たに提案する。
このデータセットは、精神状態を検出し、複数の言語にわたる重症度を評価する上で、LLMのパフォーマンスを総合的に評価することを可能にする。
GPTとLlamaを実験することにより、同じ翻訳データセットで評価されているにもかかわらず、言語間での性能のかなりの変動を観察する。
この矛盾は、言語固有のニュアンスとメンタルヘルスデータカバレッジがモデルの正確性に影響を与える、多言語的なメンタルヘルスサポートに固有の複雑さを浮き彫りにする。
包括的エラー分析を通じて、医療環境(例えば、誤診に寄与する可能性)において、大きな言語モデル(LLM)にのみ依存するリスクを強調した。
さらに,提案手法は多言語タスクに対して大幅なコスト削減を実現し,広範囲な実装において大きな優位性を示す。
関連論文リスト
- Do LLMs Provide Consistent Answers to Health-Related Questions across Languages? [14.87110905165928]
英語,ドイツ語,トルコ語,中国語の健康問題に対するLarge Language Models (LLMs) による回答の整合性を検討した。
医療の誤報を広める可能性のある反応の重大な矛盾を明らかにした。
本研究は, 正確で公平な医療情報を確保するために, 言語間アライメントの改善の必要性を強調した。
論文 参考訳(メタデータ) (2025-01-24T18:51:26Z) - Bridging Language Barriers in Healthcare: A Study on Arabic LLMs [1.2006896500048552]
本稿では,多言語理解と医学知識の両方に熟練した大規模言語モデルを開発する上での課題について考察する。
言語比率を慎重に調整した大規模モデルは、母国語の臨床課題において優れた性能を発揮することが判明した。
論文 参考訳(メタデータ) (2025-01-16T20:24:56Z) - A Comprehensive Evaluation of Large Language Models on Mental Illnesses in Arabic Context [0.9074663948713616]
メンタルヘルス障害はアラブ世界で公衆衛生の懸念が高まっている。
本研究は,多様なメンタルヘルスデータセットに基づいて,8つの大言語モデル(LLM)を包括的に評価する。
論文 参考訳(メタデータ) (2025-01-12T16:17:25Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Multi-OphthaLingua: A Multilingual Benchmark for Assessing and Debiasing LLM Ophthalmological QA in LMICs [3.1894617416005855]
大型言語モデル(LLM)は、様々な眼科手術を自動化するための有望なソリューションを提供する。
LLMは、自然言語の問合せタスクにおいて、様々な言語で顕著に異なる性能を示してきた。
本研究は,複数言語にまたがる質問を手作業でキュレートした,最初の多言語眼科的質問答えベンチマークを提案する。
論文 参考訳(メタデータ) (2024-12-18T20:18:03Z) - XTransplant: A Probe into the Upper Bound Performance of Multilingual Capability and Culture Adaptability in LLMs via Mutual Cross-lingual Feed-forward Transplantation [49.69780199602105]
現在の大規模言語モデル(LLM)は多言語能力と文化的適応性に不均衡を示すことが多い。
本稿では,言語間フィードフォワード移植による言語間遅延相互作用を探索するXTransplantという探索手法を提案する。
我々は,LLMの多言語能力と文化的適応性の両方が,XTransplantによって大幅に改善される可能性を持っていることを実証的に証明した。
論文 参考訳(メタデータ) (2024-12-17T09:05:30Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Better to Ask in English: Cross-Lingual Evaluation of Large Language
Models for Healthcare Queries [31.82249599013959]
大規模言語モデル(LLM)は、一般大衆が情報にアクセスし消費する方法を変えつつある。
LLMは印象的な言語理解と生成能力を示しているが、その安全性に関する懸念は依然として最重要である。
これらのLLMが非英語の文脈でどのように機能するかは、まだ不明である。
論文 参考訳(メタデータ) (2023-10-19T20:02:40Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。