論文の概要: RHealthTwin: Towards Responsible and Multimodal Digital Twins for Personalized Well-being
- arxiv url: http://arxiv.org/abs/2506.08486v1
- Date: Tue, 10 Jun 2025 06:20:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:41.665622
- Title: RHealthTwin: Towards Responsible and Multimodal Digital Twins for Personalized Well-being
- Title(参考訳): RHealthTwin:パーソナライズされたウェルビーイングのための責任とマルチモーダルデジタルツインを目指して
- Authors: Rahatara Ferdousi, M Anwar Hossain,
- Abstract要約: 本稿では,AIを活用したデジタル双生児の構築と管理のための基本的枠組みを提案する。
RHealthTwinは、健康に焦点を当てた言語モデルを誘導し、安全で関連性があり説明可能な応答を生成するマルチモーダル入力を処理する。
RHealthTwinはメンタルサポート、症状トリアージ、栄養計画、活動コーチングを含む4つの消費者健康領域で評価した。
- 参考スコア(独自算出の注目度): 1.565361244756411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of large language models (LLMs) has created new possibilities for digital twins in healthcare. However, the deployment of such systems in consumer health contexts raises significant concerns related to hallucination, bias, lack of transparency, and ethical misuse. In response to recommendations from health authorities such as the World Health Organization (WHO), we propose Responsible Health Twin (RHealthTwin), a principled framework for building and governing AI-powered digital twins for well-being assistance. RHealthTwin processes multimodal inputs that guide a health-focused LLM to produce safe, relevant, and explainable responses. At the core of RHealthTwin is the Responsible Prompt Engine (RPE), which addresses the limitations of traditional LLM configuration. Conventionally, users input unstructured prompt and the system instruction to configure the LLM, which increases the risk of hallucination. In contrast, RPE extracts predefined slots dynamically to structure both inputs. This guides the language model to generate responses that are context aware, personalized, fair, reliable, and explainable for well-being assistance. The framework further adapts over time through a feedback loop that updates the prompt structure based on user satisfaction. We evaluate RHealthTwin across four consumer health domains including mental support, symptom triage, nutrition planning, and activity coaching. RPE achieves state-of-the-art results with BLEU = 0.41, ROUGE-L = 0.63, and BERTScore = 0.89 on benchmark datasets. Also, we achieve over 90% in ethical compliance and instruction-following metrics using LLM-as-judge evaluation, outperforming baseline strategies. We envision RHealthTwin as a forward-looking foundation for responsible LLM-based applications in health and well-being.
- Abstract(参考訳): 大規模言語モデル(LLM)の台頭は、医療におけるデジタル双生児の新しい可能性を生み出している。
しかし、消費者の健康状況におけるこのようなシステムの展開は、幻覚、偏見、透明性の欠如、倫理的誤用に関連する重要な懸念を提起する。
世界保健機関(WHO)などの保健機関の勧告に応じて、我々は、健康支援のためにAIによるデジタル双生児を構築し管理するための原則的枠組みであるレスポンシブルヘルスツイン(RHealthTwin)を提案する。
RHealthTwinは、健康に焦点を当てたLSMを誘導し、安全で関連性があり説明可能な応答を生成するマルチモーダル入力を処理する。
RHealthTwinの中核にResponsible Prompt Engine (RPE)があり、従来のLLM構成の制限に対処している。
従来、ユーザは非構造化プロンプトとLLMを構成するためのシステム命令を入力し、幻覚のリスクを高める。
対照的に、RPEは両方の入力を構成するために事前に定義されたスロットを動的に抽出する。
これにより、言語モデルがコンテキストを認識し、パーソナライズされ、公正で、信頼性があり、適切な支援のために説明可能な応答を生成するようにガイドされます。
フレームワークはさらに、ユーザの満足度に基づいてプロンプト構造を更新するフィードバックループを通じて、時間の経過とともに適応する。
RHealthTwinはメンタルサポート、症状トリアージ、栄養計画、活動コーチングを含む4つの消費者健康領域で評価した。
RPEは、BLEU = 0.41、ROUGE-L = 0.63、BERTScore = 0.89で最先端の結果を達成する。
また、LLM-as-judge評価を用いて、倫理的コンプライアンスと指示追従の指標の90%以上を達成し、ベースライン戦略を上回った。
我々はRHealthTwinを、健康と幸福に責任を負うLCMベースのアプリケーションのための、先進的な基盤として想定する。
関連論文リスト
- Med-CoDE: Medical Critique based Disagreement Evaluation Framework [72.42301910238861]
医学的文脈における大きな言語モデル(LLM)の信頼性と精度は依然として重要な懸念点である。
現在の評価手法はロバスト性に欠けることが多く、LLMの性能を総合的に評価することができない。
我々は,これらの課題に対処するために,医療用LCMの特別設計評価フレームワークであるMed-CoDEを提案する。
論文 参考訳(メタデータ) (2025-04-21T16:51:11Z) - Quantifying the Reasoning Abilities of LLMs on Real-world Clinical Cases [48.87360916431396]
MedR-Benchは1,453例の構造化患者のベンチマークデータセットで、推論基準を付した注釈付きである。
本稿では,3つの批判的診察勧告,診断決定,治療計画を含む枠組みを提案し,患者のケアジャーニー全体をシミュレートする。
このベンチマークを用いて、DeepSeek-R1、OpenAI-o3-mini、Gemini-2.0-Flash Thinkingなど、最先端の5つのLCMを評価した。
論文 参考訳(メタデータ) (2025-03-06T18:35:39Z) - Natural Language-Assisted Multi-modal Medication Recommendation [97.07805345563348]
NLA-MMR(Natural Language-Assisted Multi-modal Medication Recommendation)を紹介する。
NLA-MMRは、患者視点から知識を学習し、医薬視点を共同で学習するために設計されたマルチモーダルアライメントフレームワークである。
本稿では,プレトレーニング言語モデル(PLM)を用いて,患者や医薬品に関するドメイン内知識を抽出する。
論文 参考訳(メタデータ) (2025-01-13T09:51:50Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - HealthQ: Unveiling Questioning Capabilities of LLM Chains in Healthcare Conversations [20.31796453890812]
HealthQは、医療会話における大規模言語モデル(LLM)の質問機能を評価するためのフレームワークである。
我々は LLM の判断を統合して, 具体性, 妥当性, 有用性など, 様々な指標を用いて, 生成した質問を評価する。
医療談話における質問機能評価のための最初の体系的枠組みを提示し、モデルに依存しない評価手法を確立し、高品質な質問をリンクして患者の情報引用を改善するための実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-09-28T23:59:46Z) - LLM on FHIR -- Demystifying Health Records [0.32985979395737786]
本研究では,大規模言語モデル(LLM)を用いた健康記録と対話可能なアプリを開発した。
このアプリは、医療データを患者フレンドリーな言語に効果的に翻訳し、その反応を異なる患者プロファイルに適応させることができた。
論文 参考訳(メタデータ) (2024-01-25T17:45:34Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。