論文の概要: Large Language Model for Mental Health: A Systematic Review
- arxiv url: http://arxiv.org/abs/2403.15401v1
- Date: Mon, 19 Feb 2024 17:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 03:13:49.291456
- Title: Large Language Model for Mental Health: A Systematic Review
- Title(参考訳): メンタルヘルスのための大規模言語モデル:システムレビュー
- Authors: Zhijun Guo, Alvina Lai, Johan Hilge Thygesen, Joseph Farrington, Thomas Keen, Kezhi Li,
- Abstract要約: 大規模言語モデル(LLM)は、デジタルヘルスにおいて大きな注目を集め、その可能性を示している。
この体系的なレビューは、精神保健におけるLLMの使用を要約し、特徴付けることを目的としている。
- 参考スコア(独自算出の注目度): 2.9429776664692526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have received much attention and shown their potential in digital health, while their application in mental health is subject to ongoing debate. This systematic review aims to summarize and characterize the use of LLMs in mental health by investigating the strengths and limitations of the latest work in LLMs and discusses the challenges and opportunities for early screening, digital interventions, and other clinical applications in mental health. Following PRISMA guidelines, we examined English articles from PubMed, DBLP Computer Science Bibliography, and IEEE Xplore, published between 1 January 2017, and 1 September 2023, focusing on mental health and LLMs. The review analyzed 32 articles, including mental health analysis using social media datasets (n=13), mental health chatbots (n=10), and other mental health applications (n=9). Findings reveal LLMs' effectiveness in mental health issue detection and the enhancement of telepsychological services through personalised healthcare. Nonetheless, risks like text inconsistencies, hallucinatory content, and the lack of an ethical framework raise concerns about their clinical use. Despite these challenges, the advancement of LLMs underscores their potential as innovative clinical tools, necessitating further research and development. The review emphasizes that LLMs should complement, not replace, professional mental health services.
- Abstract(参考訳): 大規模言語モデル(LLM)は、デジタルヘルスにおいてその可能性を示しつつも、メンタルヘルスへの応用は、現在進行中の議論の対象となっている。
本システムレビューは, 精神保健におけるLSMの使用を, LLMにおける最新の研究の強みと限界を調査し, 早期スクリーニング, デジタル介入, その他のメンタルヘルスにおける臨床応用の課題と機会を論じることによって, 精神保健におけるLSMの使用を要約し特徴付けることを目的としている。
PRISMAガイドラインに従って,2017年1月1日から2023年9月1日までに公開された,PubMed,DBLP Computer Science Bibliography,IEEE Xploreの英語記事について検討した。
分析対象は,ソーシャルメディアデータセット(n=13),メンタルヘルスチャットボット(n=10),その他のメンタルヘルスアプリケーション(n=9。
発見は、LLMsが精神保健問題の検出と、個人化された医療を通じて遠隔医療サービスの強化に有効であることを明らかにしている。
それでも、テキストの不整合、幻覚的内容、倫理的枠組みの欠如といったリスクは、臨床的使用に対する懸念を引き起こす。
これらの課題にもかかわらず、LSMの進歩は、彼らの革新的な臨床ツールとしての可能性を強調し、さらなる研究と開発を必要としている。
レビューでは、LSMは専門的なメンタルヘルスサービスを補完するものではなく、補完するべきだと強調している。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Leveraging LLMs for Translating and Classifying Mental Health Data [3.0382033111760585]
本研究は,ギリシャ語におけるうつ病の重症度の自動検出に焦点をあてる。
以上の結果から,GPT3.5-turboは英語における抑うつの重症度を同定するにはあまり成功せず,ギリシャ語でも多彩な性能を示した。
論文 参考訳(メタデータ) (2024-10-16T19:30:11Z) - CliMedBench: A Large-Scale Chinese Benchmark for Evaluating Medical Large Language Models in Clinical Scenarios [50.032101237019205]
CliMedBenchは、14のエキスパートによるコア臨床シナリオを備えた総合的なベンチマークである。
このベンチマークの信頼性はいくつかの点で確認されている。
論文 参考訳(メタデータ) (2024-10-04T15:15:36Z) - Severity Prediction in Mental Health: LLM-based Creation, Analysis,
Evaluation of a Novel Multilingual Dataset [3.4146360486107987]
大規模言語モデル(LLM)は、メンタルヘルス支援システムを含む様々な医療分野に統合されつつある。
本稿では、広く使われているメンタルヘルスデータセットを英語から6言語に翻訳した新しい多言語適応法を提案する。
このデータセットは、精神状態を検出し、複数の言語にわたる重症度を評価する上で、LLMのパフォーマンスを総合的に評価することを可能にする。
論文 参考訳(メタデータ) (2024-09-25T22:14:34Z) - LLM Questionnaire Completion for Automatic Psychiatric Assessment [49.1574468325115]
大規模言語モデル(LLM)を用いて、非構造的心理面接を、様々な精神科領域と人格領域にまたがる構造化された質問票に変換する。
得られた回答は、うつ病の標準化された精神医学的指標(PHQ-8)とPTSD(PCL-C)の予測に使用される特徴として符号化される。
論文 参考訳(メタデータ) (2024-06-09T09:03:11Z) - Large Language Models in Mental Health Care: a Scoping Review [28.635427491110484]
メンタルヘルスにおける大規模言語モデル(LLM)の統合は、新たな分野である。
アプリケーションの結果を体系的にレビューし、臨床設定の利点と限界を明確にすることが必要である。
本総説は、精神医療におけるLSMの使用について、その効果、課題、将来的な応用の可能性について、総合的に概観することを目的としている。
論文 参考訳(メタデータ) (2024-01-01T17:35:52Z) - Challenges of Large Language Models for Mental Health Counseling [4.604003661048267]
世界のメンタルヘルス危機は、精神疾患の急速な増加、限られた資源、治療を求める社会的便宜によって悪化している。
メンタルヘルス領域における大規模言語モデル(LLM)の適用は、提供された情報の正確性、有効性、信頼性に関する懸念を提起する。
本稿では, モデル幻覚, 解釈可能性, バイアス, プライバシ, 臨床効果など, 心理カウンセリングのためのLSMの開発に伴う課題について検討する。
論文 参考訳(メタデータ) (2023-11-23T08:56:41Z) - A Survey of Large Language Models in Medicine: Progress, Application, and Challenge [85.09998659355038]
大規模言語モデル (LLM) は、人間の言語を理解し、生成する能力のために大きな注目を集めている。
本総説は,医学におけるLSMの開発と展開について概説することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T02:55:58Z) - Benefits and Harms of Large Language Models in Digital Mental Health [40.02859683420844]
大型言語モデル (LLMs) は、デジタルメンタルヘルスを未知の領域に導くことを約束している。
本稿では、デジタルメンタルヘルスツールの設計、開発、実装においてLLMがもたらす可能性とリスクについて、現代の展望を示す。
論文 参考訳(メタデータ) (2023-11-07T14:11:10Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。