論文の概要: How Real Are Synthetic Therapy Conversations? Evaluating Fidelity in Prolonged Exposure Dialogues
- arxiv url: http://arxiv.org/abs/2504.21800v4
- Date: Sat, 20 Sep 2025 08:28:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 14:36:45.013004
- Title: How Real Are Synthetic Therapy Conversations? Evaluating Fidelity in Prolonged Exposure Dialogues
- Title(参考訳): 合成療法の会話はどこまでリアルか : 長期露光対話における忠実度の評価
- Authors: Suhas BN, Dominik Mattioli, Saeed Abdullah, Rosa I. Arriaga, Chris W. Wiese, Andrew M. Sherrill,
- Abstract要約: 医療における合成データの採用は、プライバシの懸念、データアクセスの制限、高いアノテーションコストによって引き起こされる。
本稿では,PTSDに対するPE(Prolonged Exposure)治療の総合的会話を,臨床モデルの訓練にスケーラブルな代替手段として検討する。
ターンテイキングや治療の忠実度といった,言語,構造,プロトコル固有の指標を用いて,実と合成の対話を体系的に比較する。
- 参考スコア(独自算出の注目度): 14.457387337806765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic data adoption in healthcare is driven by privacy concerns, data access limitations, and high annotation costs. We explore synthetic Prolonged Exposure (PE) therapy conversations for PTSD as a scalable alternative for training clinical models. We systematically compare real and synthetic dialogues using linguistic, structural, and protocol-specific metrics like turn-taking and treatment fidelity. We introduce and evaluate PE-specific metrics, offering a novel framework for assessing clinical fidelity beyond surface fluency. Our findings show that while synthetic data successfully mitigates data scarcity and protects privacy, capturing the most subtle therapeutic dynamics remains a complex challenge. Synthetic dialogues successfully replicate key linguistic features of real conversations, for instance, achieving a similar Readability Score (89.2 vs. 88.1), while showing differences in some key fidelity markers like distress monitoring. This comparison highlights the need for fidelity-aware metrics that go beyond surface fluency to identify clinically significant nuances. Our model-agnostic framework is a critical tool for developers and clinicians to benchmark generative model fidelity before deployment in sensitive applications. Our findings help clarify where synthetic data can effectively complement real-world datasets, while also identifying areas for future refinement.
- Abstract(参考訳): 医療における合成データの採用は、プライバシの懸念、データアクセスの制限、高いアノテーションコストによって引き起こされる。
本稿では,PTSDに対するPE(Prolonged Exposure)治療の総合的会話を,臨床モデルの訓練にスケーラブルな代替手段として検討する。
ターンテイキングや治療の忠実度といった,言語,構造,プロトコル固有の指標を用いて,実と合成の対話を体系的に比較する。
PE特異的な指標を導入,評価し,表面流速を超える臨床忠実度を評価するための新しい枠組みを提供する。
我々の研究によると、合成データはデータの不足を軽減し、プライバシを保護するのに成功しているが、最も微妙な治療的ダイナミクスを捉えることは難しい課題である。
合成対話は、例えば、同様の可読性スコア(89.2対88.1)を達成しながら、実際の会話の重要な言語的特徴を再現することに成功した。
この比較は、臨床的に重要なニュアンスを特定するために表面流速を超えるフィデリティ対応メトリクスの必要性を強調している。
私たちのモデルに依存しないフレームワークは、開発者や臨床医が機密性の高いアプリケーションにデプロイする前に生成モデル忠実度をベンチマークするための重要なツールです。
本研究は, 合成データが現実のデータセットを効果的に補完し, 将来の改良に向けての領域を同定する上で有効であることを示す。
関連論文リスト
- Voice Cloning for Dysarthric Speech Synthesis: Addressing Data Scarcity in Speech-Language Pathology [0.0]
本研究は, 変形性関節症患者の独特のパターンを再現した合成音声を生成するために, 音声クローニングについて検討する。
TORGOデータセットを用いて,言語病理学におけるデータ不足とプライバシー問題に対処する。
我々は,義歯の音声とコントロールスピーカーの音声を商業的プラットフォームでクローンし,性別に適合した合成音声を保証した。
論文 参考訳(メタデータ) (2025-03-03T07:44:49Z) - Medical Hallucinations in Foundation Models and Their Impact on Healthcare [53.97060824532454]
マルチモーダルデータの処理と生成が可能なファンデーションモデルは、医療におけるAIの役割を変革した。
医療幻覚を、モデルが誤解を招く医療内容を生成する場合の例と定義する。
以上の結果から,Chain-of-Thought (CoT) や Search Augmented Generation などの推論手法は,幻覚率を効果的に低減できることがわかった。
これらの知見は、ロバストな検出と緩和戦略のための倫理的かつ実践的な衝動を浮き彫りにした。
論文 参考訳(メタデータ) (2025-02-26T02:30:44Z) - Position Paper: Building Trust in Synthetic Data for Clinical AI [0.3937354192623676]
本稿では, 臨床応用において, 総合医療データの信頼性向上が重要であることを論じる。
我々は,脳腫瘍のセグメント化による経験的証拠を提示し,合成データの質,多様性,比率が臨床AIモデルの信頼に直接影響を与えることを示す。
論文 参考訳(メタデータ) (2025-02-04T07:53:23Z) - Dialogue is Better Than Monologue: Instructing Medical LLMs via Strategical Conversations [74.83732294523402]
実世界の診断シナリオをシミュレートし,USMLE標準に適合するノイズと難易度を統合する新しいベンチマークを導入する。
また、対話に基づく微調整についても検討し、静的データセットを会話形式に変換し、反復的推論プロセスをよりよく捉える。
実験の結果、対話調整されたモデルは従来の手法よりも優れており、マルチラウンド推論のシナリオでは9.64%、ノイズの多い環境では6.18%の精度で改善されている。
論文 参考訳(メタデータ) (2025-01-29T18:58:48Z) - LlaMADRS: Prompting Large Language Models for Interview-Based Depression Assessment [75.44934940580112]
LlaMADRSは、オープンソースのLarge Language Models(LLM)を利用して、うつ病の重症度評価を自動化する新しいフレームワークである。
本研究は,クリニカルインタヴューの解釈・スコアリングにおけるモデル指導のために,慎重に設計された手がかりを用いたゼロショットプロンプト戦略を用いている。
実世界における236件のインタビューを対象とし,臨床評価と強い相関性を示した。
論文 参考訳(メタデータ) (2025-01-07T08:49:04Z) - Synthetic Patient-Physician Dialogue Generation from Clinical Notes Using LLM [27.33193944412666]
医療対話システム(MDS)は、患者と医師のコミュニケーションを強化し、医療のアクセシビリティを改善し、コストを削減する。
しかし、これらのシステムの訓練に適したデータを取得することは大きな課題である。
我々のアプローチであるSynDialは、ゼロショットプロンプトとフィードバックループを備えた単一のLLMを反復的に使用し、高品質な合成対話を生成する。
論文 参考訳(メタデータ) (2024-08-12T16:49:22Z) - Zero-shot and Few-shot Generation Strategies for Artificial Clinical Records [1.338174941551702]
本研究は,Llama 2 LLMが患者情報を正確に反映した合成医療記録を作成する能力を評価するものである。
筆者らは,MIMIC-IVデータセットから得られたデータを用いて,現在史の物語を生成することに重点を置いている。
このチェーン・オブ・シークレットのアプローチにより、ゼロショットモデルが、ルージュのメトリクス評価に基づいて、微調整されたモデルと同等の結果が得られることが示唆された。
論文 参考訳(メタデータ) (2024-03-13T16:17:09Z) - Detecting the Clinical Features of Difficult-to-Treat Depression using
Synthetic Data from Large Language Models [0.20971479389679337]
我々は,日常的に収集された物語(自由テキスト)電子健康記録データを問うことができるLarge Language Model(LLM)ベースのツールの開発を目指している。
LLM生成合成データ(GPT3.5)と非最大抑圧(NMS)アルゴリズムを用いてBERTに基づくスパン抽出モデルを訓練する。
以上の結果から,20因子のセットによる臨床データによる総合成績 (0.70 F1) と重要なDTDのサブセットにおける高いパフォーマンス (0.85 F1 と 0.95 の精度) が得られた。
論文 参考訳(メタデータ) (2024-02-12T13:34:33Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [69.28268603137546]
セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - TREEMENT: Interpretable Patient-Trial Matching via Personalized Dynamic
Tree-Based Memory Network [54.332862955411656]
臨床試験は薬物開発に不可欠であるが、しばしば高価で非効率な患者募集に苦しむ。
近年,患者と臨床試験を自動マッチングすることで患者採用を高速化する機械学習モデルが提案されている。
本稿では,TREement という名前の動的ツリーベースメモリネットワークモデルを導入する。
論文 参考訳(メタデータ) (2023-07-19T12:35:09Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。