論文の概要: Unlocking LLMs: Addressing Scarce Data and Bias Challenges in Mental Health
- arxiv url: http://arxiv.org/abs/2412.12981v1
- Date: Tue, 17 Dec 2024 15:01:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:59:24.186030
- Title: Unlocking LLMs: Addressing Scarce Data and Bias Challenges in Mental Health
- Title(参考訳): LLMのアンロック:メンタルヘルスにおけるスカースデータとバイアス問題に対処する
- Authors: Vivek Kumar, Eirini Ntoutsi, Pushpraj Singh Rajawat, Giacomo Medda, Diego Reforgiato Recupero,
- Abstract要約: 大規模言語モデル(LLM)は、医療分析において有望な能力を示しているが、幻覚、オウム、偏見の顕在化といったいくつかの課題に直面している。
IC-AnnoMI(IC-AnnoMI)は、AnnoMI上に構築された、専門家によるモチベーションインタビュー(MI)データセットである。
IC-AnnoMIは、治療スタイル(共感、反射)、文脈的関連性、偽の意味変化を考慮に入れ、キューや調整された情報を通じて正確に設計されたターゲットプロンプトを使用する。
- 参考スコア(独自算出の注目度): 8.703482957316107
- License:
- Abstract: Large language models (LLMs) have shown promising capabilities in healthcare analysis but face several challenges like hallucinations, parroting, and bias manifestation. These challenges are exacerbated in complex, sensitive, and low-resource domains. Therefore, in this work we introduce IC-AnnoMI, an expert-annotated motivational interviewing (MI) dataset built upon AnnoMI by generating in-context conversational dialogues leveraging LLMs, particularly ChatGPT. IC-AnnoMI employs targeted prompts accurately engineered through cues and tailored information, taking into account therapy style (empathy, reflection), contextual relevance, and false semantic change. Subsequently, the dialogues are annotated by experts, strictly adhering to the Motivational Interviewing Skills Code (MISC), focusing on both the psychological and linguistic dimensions of MI dialogues. We comprehensively evaluate the IC-AnnoMI dataset and ChatGPT's emotional reasoning ability and understanding of domain intricacies by modeling novel classification tasks employing several classical machine learning and current state-of-the-art transformer approaches. Finally, we discuss the effects of progressive prompting strategies and the impact of augmented data in mitigating the biases manifested in IC-AnnoM. Our contributions provide the MI community with not only a comprehensive dataset but also valuable insights for using LLMs in empathetic text generation for conversational therapy in supervised settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、医療分析において有望な能力を示しているが、幻覚、オウム、偏見の顕在化といったいくつかの課題に直面している。
これらの課題は、複雑で機密性の高い、低リソースのドメインで悪化しています。
そこで本研究では,LLM,特にChatGPTを利用した会話対話を生成することにより,AnnoMI上に構築された専門家によるモチベーションインタビュー(MI)データセットであるIC-AnnoMIを紹介する。
IC-AnnoMIは、治療スタイル(共感、反射)、文脈的関連性、偽の意味変化を考慮に入れ、キューや調整された情報を通じて正確に設計されたターゲットプロンプトを使用する。
その後、対話は専門家によって注釈付けされ、MI対話の心理的側面と言語的側面に焦点をあてて、モチベーション・インタビュースキル・コード(MISC)に厳密に準拠する。
IC-AnnoMIデータセットとChatGPTの感情的推論能力とドメインの複雑さの理解を、いくつかの古典的機械学習と最先端のトランスフォーマーアプローチを用いた新しい分類タスクをモデル化することにより、包括的に評価する。
最後に、IC-AnnoMのバイアス軽減におけるプログレッシブプロンプト戦略の効果と、拡張データの影響について論じる。
我々のコントリビューションは、包括的データセットだけでなく、共感的テキスト生成にLLMを使うための貴重な洞察もMIコミュニティに提供する。
関連論文リスト
- REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - KMI: A Dataset of Korean Motivational Interviewing Dialogues for Psychotherapy [5.305294122910311]
モチベーション・インタヴュー(MI)は,これらのチャットボットの開発における専門知識向上の理論的基盤として注目されている。
本稿では,専門的セラピストの専門知識に富んだMIセッションをシミュレートする新しいフレームワークを提案する。
提案するKMIは、理論上はMIに基礎を置いている最初の合成データセットであり、高品質な韓国のモチベーション・インタビュー対話を1000種類含んでいる。
論文 参考訳(メタデータ) (2025-02-08T17:53:41Z) - Detecting Neurocognitive Disorders through Analyses of Topic Evolution and Cross-modal Consistency in Visual-Stimulated Narratives [84.03001845263]
神経認知障害(NCD)の早期発見は、時間的介入と疾患管理に不可欠である。
伝統的な物語分析は、しばしば単語の使用法や構文など、ミクロ構造における局所的な指標に焦点を当てる。
本稿では,話題の変化,時間的ダイナミクス,物語の時間的コヒーレンスを分析することによって,特定の認知的・言語的課題を解明することを提案する。
論文 参考訳(メタデータ) (2025-01-07T12:16:26Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Rethinking the Alignment of Psychotherapy Dialogue Generation with Motivational Interviewing Strategies [30.237161801912453]
大規模言語モデル(LLM)は、特にモチベーション・インタビュー(MI)の文脈において、精神療法的対話を生み出すことを約束している。
MI戦略をMIスキルのセットとして適用することで、説明可能性を備えたより制御可能な治療に順応した会話が実現可能となる。
論文 参考訳(メタデータ) (2024-08-12T23:19:02Z) - BiosERC: Integrating Biography Speakers Supported by LLMs for ERC Tasks [2.9873893715462176]
本研究は,会話における話者特性を調査するBiosERCという新しいフレームワークを紹介する。
本研究では,Large Language Models (LLMs) を用いて,会話中の話者の「生体情報」を抽出する。
提案手法は,3つの有名なベンチマークデータセットを用いて,最先端のSOTA(State-of-the-art)結果を得た。
論文 参考訳(メタデータ) (2024-07-05T06:25:34Z) - Empathy Through Multimodality in Conversational Interfaces [1.360649555639909]
会話型健康エージェント(CHA)は、感情的なインテリジェンスを組み込むためにテキスト分析を超越するニュアンスなサポートを提供することで、医療を再定義している。
本稿では、豊かなマルチモーダル対話のためのLCMベースのCHAについて紹介する。
マルチモーダルな手がかりを解析することにより、ユーザの感情状態に順応的に解釈し、応答し、文脈的に認識され、共感的に反響する音声応答を提供する。
論文 参考訳(メタデータ) (2024-05-08T02:48:29Z) - GPT as Psychologist? Preliminary Evaluations for GPT-4V on Visual Affective Computing [74.68232970965595]
MLLM(Multimodal large language model)は、テキスト、音声、画像、ビデオなどの複数のソースからの情報を処理し、統合するように設計されている。
本稿では、視覚的情緒的タスクと推論タスクにまたがる5つの重要な能力を持つMLLMの適用性を評価する。
論文 参考訳(メタデータ) (2024-03-09T13:56:25Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - Affect Recognition in Conversations Using Large Language Models [9.689990547610664]
影響認識は人間のコミュニケーションにおいて重要な役割を担っている。
本研究では,会話における人間の影響を認識するための言語モデル(LLM)の能力について検討する。
論文 参考訳(メタデータ) (2023-09-22T14:11:23Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。