論文の概要: Toward expert-level motivational interviewing for health behavior improvement with LLMs
- arxiv url: http://arxiv.org/abs/2512.15446v1
- Date: Wed, 17 Dec 2025 13:43:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.012231
- Title: Toward expert-level motivational interviewing for health behavior improvement with LLMs
- Title(参考訳): LLMによる健康行動改善のための専門家レベルのモチベーション面接に向けて
- Authors: Run-ze Hu, Yang Yang, Yi-hang Yang, Jing-qi Kong, Jia-hui Luo, Wen-yu Yang, Jing Chen, Jing-yao Liu, Hui-qun Zeng, Lei Zhang, Zheng Liu,
- Abstract要約: モチベーション・インタヴュー(MI)は、健康行動の変化を促進する効果的なカウンセリング手法であるが、その影響は高度に訓練された人間カウンセラーの必要性によって制限されている。
本研究は,MI-LLMのための大規模言語モデルの開発と評価である。
3台の中国製オープンソース LLM がこのコーパスに微調整され、MI-LLM と命名された。
- 参考スコア(独自算出の注目度): 17.267453197266715
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Background: Motivational interviewing (MI) is an effective counseling approach for promoting health behavior change, but its impact is constrained by the need for highly trained human counselors. Objective: This study aimed to explore a scalable alternative by developing and evaluating Large Language Models for Motivational Interviewing (MI-LLMs). Methods: We first curated five Chinese psychological counseling corpora and, using GPT-4 with an MI-informed prompt, transcribed multi-turn dialogues from the two highest-quality datasets (CPsyCounD and PsyDTCorpus) into 2,040 MI-style counseling conversations, of which 2,000 were used for training and 40 for testing. Three Chinese-capable open-source LLMs (Baichuan2-7B-Chat, ChatGLM-4-9B-Chat and Llama-3-8B-Chinese-Chat-v2) were fine-tuned on this corpus and were named as MI-LLMs. We evaluated MI-LLMs using round-based automatic metrics and expert manual coding with the Motivational Interviewing Treatment Integrity (MITI) Coding Manual 4.2.1. Results: Across all three models, fine-tuning substantially improved BLEU-4 and ROUGE scores compared with the base models, and manual coding showed that MI-LLMs achieved technical and relational global scores, and MI-adherent ratios that approached those of real MI dialogues, although complex reflections and reflection-to-question ratios remained less frequent. Conclusions: These findings provide initial evidence that MI-oriented fine-tuning can endow general-purpose LLMs with core MI-consistent counseling behaviors, suggesting a scalable pathway toward AI-assisted health behavior change support while underscoring the need for further work on data scale, complex MI skills and real-world intervention trials.
- Abstract(参考訳): 背景: モチベーション面接(MI)は、健康行動の変化を促進する効果的なカウンセリング手法であるが、その影響は高度に訓練された人間カウンセラーの必要性によって制約されている。
目的:本研究は,MI-LLM(Large Language Models for Motivational Interviewing)を開発し,評価することで,スケーラブルな代替手段を探究することを目的とした。
方法:まず5つの中国の心理カウンセリングコーパスを治療し,MIインフォームドプロンプトを用いたGPT-4を用いて,2つの高品質データセット(CPsyCounDとPsyDTCorpus)から2,040のMIスタイルカウンセリング会話を行い,そのうち2,000がトレーニングに使用し,40はテストに使用した。
3つの中国対応オープンソースLCM(Baichuan2-7B-Chat、ChatGLM-4-9B-Chat、Llama-3-8B-Chat-v2)がこのコーパスに微調整され、MI-LLMと命名された。
我々は,MI-LLMをラウンドベースの自動測定値と,MII (Motivational Interviewing Treatment Integrity) 符号化マニュアル4.2.1を用いて専門家の手によるコーディングを用いて評価した。
結果: 3つのモデル全体で, BLEU-4とROUGEのスコアは基本モデルと比較して大幅に改善され, 手動符号化によりMI-LLMが技術的および関係的グローバルスコアを達成し, MI-LLMが実際のMIダイアログに近づいたMI-アドヒーレント比は, 複雑なリフレクションとリフレクション・ツー・クエクションの比率が低かった。
結論:これらの知見は,MI指向の微調整がMI一貫性カウンセリング行動のコアとなる汎用LSMを達成できることを示す最初の証拠となり,データスケール,複雑なMIスキル,実世界の介入試験の必要性を強調しつつ,AI支援型健康行動変化支援へのスケーラブルな経路が示唆された。
関連論文リスト
- Beyond Description: Cognitively Benchmarking Fine-Grained Action for Embodied Agents [52.14392337070763]
CFG-Benchは、きめ細かな動作インテリジェンスを体系的に評価する新しいベンチマークである。
CFG-Benchは、1,368のキュレートされたビデオと19,562の3つのモダリティからなる質問応答ペアからなる。
CFG-Benchに関する包括的評価から,MLLMの先導者は,物理的相互作用の詳細な指示を生成するのに苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2025-11-24T02:02:29Z) - MedAlign: A Synergistic Framework of Multimodal Preference Optimization and Federated Meta-Cognitive Reasoning [52.064286116035134]
我々はMed-VQA(Med-VQA)のための視覚的LVLM応答を保証するフレームワークであるMedAlignを開発した。
まず、優先学習を視覚的コンテキストに合わせるために、マルチモーダルな直接選好最適化(mDPO)の目的を提案する。
次に、画像とテキストの類似性を生かし、クエリを専門的でコンテキスト拡張されたLVLMにルーティングする検索型混合処理(RA-MoE)アーキテクチャを設計する。
論文 参考訳(メタデータ) (2025-10-24T02:11:05Z) - AI-Augmented LLMs Achieve Therapist-Level Responses in Motivational Interviewing [9.629072515294661]
大規模言語モデル(LLM)は中毒治療における動機付け面接(MI)のスケーリングの可能性を示す。
本稿では,ユーザ認識品質(UPQ)を評価するための計算フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-23T01:33:04Z) - Conversation AI Dialog for Medicare powered by Finetuning and Retrieval Augmented Generation [0.0]
大きな言語モデル(LLM)は、対話生成を含む自然言語処理タスクにおいて印象的な機能を示している。
本研究の目的は、LoRAによる微調整とRetrieval-Augmented Generationフレームワークという、2つの重要な技術の比較分析を行うことである。
論文 参考訳(メタデータ) (2025-02-04T11:50:40Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - MME-Survey: A Comprehensive Survey on Evaluation of Multimodal LLMs [97.94579295913606]
MLLM(Multimodal Large Language Models)は、産業と学術の両方から注目を集めている。
開発プロセスでは、モデルの改善に関する直感的なフィードバックとガイダンスを提供するため、評価が重要である。
この研究は、研究者に異なるニーズに応じてMLLMを効果的に評価する方法を簡単に把握し、より良い評価方法を促すことを目的としている。
論文 参考訳(メタデータ) (2024-11-22T18:59:54Z) - PALLM: Evaluating and Enhancing PALLiative Care Conversations with Large Language Models [10.258261180305439]
大規模言語モデル(LLM)は、複雑なコミュニケーションメトリクスを評価するための新しいアプローチを提供する。
LLMは受動的センシングシステムとジャスト・イン・タイム・イン・タイム・イン・イン・介入システムとの統合を通じて、分野を前進させる可能性を提供する。
本研究は, 言語, 文脈内学習, 推論能力を活用した緩和ケアコミュニケーションの質評価手法としてLLMについて検討する。
論文 参考訳(メタデータ) (2024-09-23T16:39:12Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Large Language Models in Medical Term Classification and Unexpected
Misalignment Between Response and Reasoning [28.355000184014084]
本研究は, 軽度認知障害 (MCI) 患者を退院サマリーから識別する, 最先端の大規模言語モデル (LLMs) の有効性を評価するものである。
データは、モデルの微調整と評価のために、トレーニング、検証、テストセットに7:2:1の比率で分割された。
FalconやLLaMA 2のようなオープンソースのモデルは高い精度を達成したが、説明的推論に欠けていた。
論文 参考訳(メタデータ) (2023-12-19T17:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。