論文の概要: PrivMedChat: End-to-End Differentially Private RLHF for Medical Dialogue Systems
- arxiv url: http://arxiv.org/abs/2603.03054v1
- Date: Tue, 03 Mar 2026 14:53:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.844085
- Title: PrivMedChat: End-to-End Differentially Private RLHF for Medical Dialogue Systems
- Title(参考訳): PrivMedChat:医療対話システムのための個人差分RLHF
- Authors: Sudip Bhujel,
- Abstract要約: PrivMedChatは、微分プライベートなRLHFのためのエンドツーエンドフレームワークである。
微分プライベートなRLHFのためのエンドツーエンドフレームワークであるPrivMedChatを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models are increasingly used for patient-facing medical assistance and clinical decision support, but adapting them to clinical dialogue often requires supervision derived from doctor-patient conversations that may contain sensitive information. Conventional supervised fine-tuning and reinforcement learning from human feedback (RLHF) can amplify memorization risks, enabling empirical membership inference and extraction of rare training-set content. We present PrivMedChat, an end-to-end framework for differentially private RLHF (DP-RLHF) for medical dialogue. Our design enforces differential privacy at every training stage that directly accesses dialogue-derived supervision: (i) Differential Private Stochastic Gradient Descent (DP-SGD) for medical SFT and (ii) DP-SGD for reward model learning from preference pairs. To limit additional privacy expenditure during alignment, we apply DP-SGD to the PPO actor and critic when operating on dialogue-derived prompts, while the reward model remains fixed after DP training. We also introduce an annotation-free preference construction strategy that pairs physician responses with filtered non-expert generations to produce scalable preference data without clinician labeling. Experiments on medical dialogue benchmarks show that PrivMedChat at $\varepsilon=7$ achieves the highest ROUGE-L of 0.156 among all DP models, reduces clinical hallucinations to 1.4% and harmful advice to 0.4%, and obtains the highest overall score of 2.86 in a 3-model LLM-jury evaluation, while producing membership-inference signals that are near chance (AUC 0.510-0.555). We open-source our code at https://github.com/sudip-bhujel/privmedchat.
- Abstract(参考訳): 大規模言語モデルは、患者が直面する医療支援や臨床決定支援にますます使われるが、臨床対話に適応するためには、機密情報を含む可能性のある医師と患者の会話に由来する監督が必要であることが多い。
従来の教師付き微調整・強化学習(RLHF)は記憶のリスクを増幅し、経験的メンバーシップ推論と希少なトレーニングセットコンテンツの抽出を可能にする。
医療対話のための個人用RLHF(DP-RLHF)のエンドツーエンドフレームワークであるPrivMedChatを提案する。
私たちのデザインは、対話に基づく監督に直接アクセスする訓練段階ごとに差分プライバシーを強制します。
i)DP-SGDの医用SFTおよびSFTへの応用
(II)DP-SGDによる選好ペアからの報酬モデル学習
調整中に追加のプライバシー支出を制限するため,DP-SGD を PPO アクターや批評家に適用し,DP トレーニング後に報酬モデルが固定されている。
また,医師の反応をフィルタした非専門家世代と組み合わせて,クリニックラベリングを使わずにスケーラブルな選好データを生成する,アノテーションのない選好構築戦略も導入する。
医療対話ベンチマークの実験では、PrivMedChatが$\varepsilon=7$で、全てのDPモデルの中で最も高いROUGE-Lを0.156で達成し、臨床幻覚を1.4%に、有害なアドバイスを0.4%に減らし、3モデルのLCM-jury評価において2.86のスコアを得た。
ソースコードはhttps://github.com/sudip-bhujel/privmedchat.comで公開しています。
関連論文リスト
- A Federated and Parameter-Efficient Framework for Large Language Model Training in Medicine [59.78991974851707]
大規模言語モデル(LLM)は、質問応答や診断など、医療ベンチマークにおいて強力なパフォーマンスを示している。
ほとんどの医療用LDMは、異種システムの一般化性と安全性の制限に直面している単一の機関のデータに基づいて訓練されている。
本稿では, LLMを医療応用に適用するためのモデルに依存しない, パラメータ効率のよいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T18:48:21Z) - Note2Chat: Improving LLMs for Multi-Turn Clinical History Taking Using Medical Notes [17.99778043736069]
医用ノートから学習することで, LLMを学習し, 構造化された履歴の取得と診断を行うためのノート駆動フレームワークを提案する。
我々は,実世界の医療ノートを,意思決定木誘導型生成・改善パイプラインを用いて高品質な医師と患者との対話に変換する。
また,一転推論問題の一列として歴史を再編成する新しい一転推論パラダイムを提案する。
論文 参考訳(メタデータ) (2026-01-29T11:05:46Z) - How to Train Private Clinical Language Models: A Comparative Study of Privacy-Preserving Pipelines for ICD-9 Coding [0.33148826359547523]
臨床テキストのリスクに敏感な患者情報を暴露する大規模言語モデル。
DP最適化の急速な進歩にもかかわらず、どのプライバシ保護戦略が効果的かは不明だ。
DP学習教師の知識蒸留はDP-SGDとDP合成データトレーニングの両方に優れる。
論文 参考訳(メタデータ) (2025-11-18T21:51:04Z) - Differential privacy enables fair and accurate AI-based analysis of speech disorders while protecting patient data [10.6135892856374]
本研究は,病的音声データにおける差分プライバシーを初めて研究したものである。
プライバシ、診断精度、公正性のトレードオフに焦点を当てている。
以上の結果から,DPは音声障害検出におけるプライバシーと利便性のバランスがとれることが明らかとなった。
論文 参考訳(メタデータ) (2024-09-27T18:25:54Z) - RuleAlign: Making Large Language Models Better Physicians with Diagnostic Rule Alignment [54.91736546490813]
本稿では,大規模言語モデルと特定の診断規則との整合性を考慮したルールアラインフレームワークを提案する。
患者と医師間の規則に基づくコミュニケーションを含む医療対話データセットを開発した。
実験の結果,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-08-22T17:44:40Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - Towards Adapting Open-Source Large Language Models for Expert-Level Clinical Note Generation [19.08691249610632]
本研究では,オープンソースのLLaMA-213億パラメータモデルに対する包括的ドメイン・タスク特化プロセスを提案する。
我々のプロセスには、AIと人間のフィードバックの両方から、継続的な事前トレーニング、教師付き微調整、強化学習が組み込まれています。
得られたLLaMA-Clinicは,医師が作成したものと同等の精度で臨床記録を作成できる。
論文 参考訳(メタデータ) (2024-04-25T15:34:53Z) - Preserving privacy in domain transfer of medical AI models comes at no
performance costs: The integral role of differential privacy [5.025818976218807]
DP-DT(DP-enhanced domain transfer)は, 心肥大, 胸水, 肺炎, 気腫, 健常者の診断に有効であった。
その結果,DP-DTは極めて高いプライバシレベルであっても,非DP-DTと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-06-10T18:41:50Z) - An Experimental Study on Private Aggregation of Teacher Ensemble
Learning for End-to-End Speech Recognition [51.232523987916636]
差分プライバシー(DP)は、プライバシーデータにノイズのある歪みを課すことで、深層モデルのトレーニングに使用されるユーザー情報を保護するための1つのデータ保護手段である。
本研究では、PATE学習を動的パターン、すなわち音声を扱うように拡張し、音響データの漏洩を避けるために、ASRに関する最初の実験を行う。
論文 参考訳(メタデータ) (2022-10-11T16:55:54Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - DeepEnroll: Patient-Trial Matching with Deep Embedding and Entailment
Prediction [67.91606509226132]
臨床試験は医薬品開発に不可欠であるが、高価で不正確で不十分な患者募集に苦しむことが多い。
DeepEnrollは、入力基準(タブラリデータ)を一致する推論のための共有潜在空間に共同でエンコードする、クロスモーダル推論学習モデルである。
論文 参考訳(メタデータ) (2020-01-22T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。