論文の概要: ChatCLIDS: Simulating Persuasive AI Dialogues to Promote Closed-Loop Insulin Adoption in Type 1 Diabetes Care
- arxiv url: http://arxiv.org/abs/2509.00891v2
- Date: Wed, 03 Sep 2025 04:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.447829
- Title: ChatCLIDS: Simulating Persuasive AI Dialogues to Promote Closed-Loop Insulin Adoption in Type 1 Diabetes Care
- Title(参考訳): ChatCLIDS: 1型糖尿病における閉鎖ループインスリン導入促進のためのAI対話のシミュレーション
- Authors: Zonghai Yao, Talha Chafekar, Junda Wang, Shuo Han, Feiyun Ouyang, Junhui Qian, Lingxi Li, Hong Yu,
- Abstract要約: 健康行動変化に対する説得的対話を厳格に評価する最初のベンチマークであるChatCLIDSを紹介する。
当フレームワークは, 臨床に基礎を置き, 不均一なプロファイルを持つ, 有能な仮想患者を対象とするライブラリーを特徴とする。
以上の結果から,LLMは時間とともに戦略に適応するが,全てのモデルが抵抗を克服するのに苦労していることが明らかとなった。
- 参考スコア(独自算出の注目度): 13.624562939886824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world adoption of closed-loop insulin delivery systems (CLIDS) in type 1 diabetes remains low, driven not by technical failure, but by diverse behavioral, psychosocial, and social barriers. We introduce ChatCLIDS, the first benchmark to rigorously evaluate LLM-driven persuasive dialogue for health behavior change. Our framework features a library of expert-validated virtual patients, each with clinically grounded, heterogeneous profiles and realistic adoption barriers, and simulates multi-turn interactions with nurse agents equipped with a diverse set of evidence-based persuasive strategies. ChatCLIDS uniquely supports longitudinal counseling and adversarial social influence scenarios, enabling robust, multi-dimensional evaluation. Our findings reveal that while larger and more reflective LLMs adapt strategies over time, all models struggle to overcome resistance, especially under realistic social pressure. These results highlight critical limitations of current LLMs for behavior change, and offer a high-fidelity, scalable testbed for advancing trustworthy persuasive AI in healthcare and beyond.
- Abstract(参考訳): 1型糖尿病におけるクローズドループインスリンデリバリーシステム(CLIDS)の現実的な導入は、技術的な失敗ではなく、多様な行動、精神社会的、社会的障壁によって引き起こされる。
健康行動変化のためのLCM駆動型説得対話を厳格に評価する最初のベンチマークであるChatCLIDSを紹介する。
本フレームワークは, 臨床基礎, 異質なプロファイル, 現実的な採用障壁を有する仮想患者ライブラリを特徴とし, 多様なエビデンスベースの説得戦略を備えた看護師エージェントとのマルチターンインタラクションをシミュレートする。
ChatCLIDSは縦断的カウンセリングと対人的社会的影響シナリオを独自にサポートし、堅牢で多次元的な評価を可能にする。
以上の結果から, LLMは時間とともに戦略に適応するが, 全てのモデルは抵抗, 特に現実的な社会的プレッシャーを克服するのに苦慮していることが明らかとなった。
これらの結果は、現在のLCMの行動変化に対する限界を強調し、医療などにおいて信頼できる説得力のあるAIを前進させるために、高忠実でスケーラブルなテストベッドを提供する。
関連論文リスト
- Are Large Language Models Dynamic Treatment Planners? An In Silico Study from a Prior Knowledge Injection Angle [3.0391297540732545]
インシリコ1型糖尿病シミュレーターにおいて,大型言語モデル (LLM) を動的インスリン投与剤として評価した。
以上の結果より, ゼロショットプロンプトを慎重に設計することで, より小型のLCMが同等あるいは優れた臨床成績を達成できることが示唆された。
LLMは、チェーン・オブ・シンドロームで刺激された時に過度にアグレッシブなインスリン投与など、顕著な制限を呈する。
論文 参考訳(メタデータ) (2025-08-06T13:46:02Z) - Reframe Your Life Story: Interactive Narrative Therapist and Innovative Moment Assessment with Large Language Models [92.93521294357058]
物語療法は、個人が問題のある人生の物語を代替品の力に変えるのに役立つ。
現在のアプローチでは、特殊精神療法ではリアリズムが欠如しており、時間とともに治療の進行を捉えることができない。
Int(Interactive Narrative Therapist)は、治療段階を計画し、反射レベルを誘導し、文脈的に適切な専門家のような反応を生成することによって、専門家の物語セラピストをシミュレートする。
論文 参考訳(メタデータ) (2025-07-27T11:52:09Z) - Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making [80.94208848596215]
提案する概念は「Catfish Agent」である。これは、構造的不満を注入し、無声な合意に反するように設計された役割特化LDMである。
組織心理学において「ナマズ・エフェクト」にインスパイアされたカマズ・エージェントは、より深い推論を促進するために、新たなコンセンサスに挑戦するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T17:59:50Z) - Can Language Models Understand Social Behavior in Clinical Conversations? [13.269701124756978]
社会的シグナルは非言語的手がかりを通じて伝達され、患者と研究者の関係の質を形成する。
大規模言語モデル(LLM)の最近の進歩は、感情的・社会的行動を予測する能力の増大を示している。
そこで本研究では,この20個の符号化信号をすべて追跡し,LLM動作のパターンを明らかにするシステムを提案する。
論文 参考訳(メタデータ) (2025-05-07T06:03:37Z) - WiseMind: Recontextualizing AI with a Knowledge-Guided, Theory-Informed Multi-Agent Framework for Instrumental and Humanistic Benefits [10.8749978349074]
WiseMindは、NLPの分野間コンテキスト化フレームワークである。
うつ病、不安症、双極性障害で試験され、診断精度は84.2%に達する。
その結果、知識、プロセス、評価層にまたがる深い文脈化は、ベンチマーク駆動型NLPを臨床的に有意義な影響に変換することができることがわかった。
論文 参考訳(メタデータ) (2025-02-28T03:45:39Z) - Ask Patients with Patience: Enabling LLMs for Human-Centric Medical Dialogue with Grounded Reasoning [25.068780967617485]
大規模言語モデル(LLM)は潜在的な解決策を提供するが、現実の臨床的相互作用に苦慮する。
Ask patients with Patience (APP) は,基礎的推論,透明な診断,人間中心のインタラクションを目的とした多ターンLCMベースの医療アシスタントである。
APPは共感的対話を通じてユーザ症状を誘発することでコミュニケーションを強化し、アクセシビリティとユーザエンゲージメントを大幅に改善する。
論文 参考訳(メタデータ) (2025-02-11T00:13:52Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。