論文の概要: Exploring Membership Inference Vulnerabilities in Clinical Large Language Models
- arxiv url: http://arxiv.org/abs/2510.18674v1
- Date: Tue, 21 Oct 2025 14:27:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.734291
- Title: Exploring Membership Inference Vulnerabilities in Clinical Large Language Models
- Title(参考訳): 臨床大言語モデルにおけるメンバーシップ推論脆弱性の探索
- Authors: Alexander Nemecek, Zebin Yun, Zahra Rahmani, Yaniv Harel, Vipin Chaudhary, Mahmood Sharif, Erman Ayday,
- Abstract要約: 臨床大言語モデル(LLM)におけるメンバーシップ推論脆弱性の探索的研究について述べる。
最新の臨床質問応答モデルであるLlemrを用いて、標準的損失に基づく攻撃とドメインを動機としたパラフレージングに基づく摂動戦略の両方を評価する。
その結果は、コンテキスト認識、ドメイン固有のプライバシ評価、防衛の継続的な開発を動機付けている。
- 参考スコア(独自算出の注目度): 42.52690697965999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As large language models (LLMs) become progressively more embedded in clinical decision-support, documentation, and patient-information systems, ensuring their privacy and trustworthiness has emerged as an imperative challenge for the healthcare sector. Fine-tuning LLMs on sensitive electronic health record (EHR) data improves domain alignment but also raises the risk of exposing patient information through model behaviors. In this work-in-progress, we present an exploratory empirical study on membership inference vulnerabilities in clinical LLMs, focusing on whether adversaries can infer if specific patient records were used during model training. Using a state-of-the-art clinical question-answering model, Llemr, we evaluate both canonical loss-based attacks and a domain-motivated paraphrasing-based perturbation strategy that more realistically reflects clinical adversarial conditions. Our preliminary findings reveal limited but measurable membership leakage, suggesting that current clinical LLMs provide partial resistance yet remain susceptible to subtle privacy risks that could undermine trust in clinical AI adoption. These results motivate continued development of context-aware, domain-specific privacy evaluations and defenses such as differential privacy fine-tuning and paraphrase-aware training, to strengthen the security and trustworthiness of healthcare AI systems.
- Abstract(参考訳): 大規模言語モデル(LLM)が徐々に臨床決定支援、文書化、患者情報システムに組み込まれていくにつれ、医療分野においてプライバシーと信頼性の確保が必須課題となっている。
機密電子健康記録(EHR)データに基づく微調整LDMは、ドメインアライメントを改善するだけでなく、モデル行動を通じて患者情報を露出するリスクも高める。
本研究は, 臨床 LLM における会員推定脆弱性の探索的研究であり, モデルトレーニング中に特定の患者記録を使用した場合, 相手が推測できるかどうかに着目した。
最新の臨床質問応答モデルであるLlemrを用いて、臨床相手の状況をよりリアルに反映した、標準的損失に基づく攻撃とドメイン駆動のパラフレージングに基づく摂動戦略の両方を評価する。
予備的な知見から,現在臨床用LLMは部分的抵抗を提供するが,微妙なプライバシーリスクを伴い,臨床用AI導入の信頼を損なう可能性が示唆された。
これらの結果は、コンテキストアウェア、ドメイン固有のプライバシ評価、ディファレンシャルプライバシ微調整やパラフレーズアウェアトレーニングといったディフェンスの継続的な開発を動機付け、医療AIシステムのセキュリティと信頼性を強化する。
関連論文リスト
- An Investigation of Memorization Risk in Healthcare Foundation Models [21.94560578418064]
構造化されたEHRデータに基づいてトレーニングされた基礎モデルのプライバシー関連リスクを評価するためのブラックボックス評価テストスイートを導入する。
本フレームワークは, 組込みと生成の両レベルでの記憶の探索方法と, モデル一般化と有害記憶の区別を目的とした。
論文 参考訳(メタデータ) (2025-10-14T19:55:07Z) - Beyond Benchmarks: Dynamic, Automatic And Systematic Red-Teaming Agents For Trustworthy Medical Language Models [87.66870367661342]
大規模言語モデル(LLM)は、医療におけるAIアプリケーションで使用される。
LLMを継続的にストレステストするレッドチームフレームワークは、4つのセーフティクリティカルなドメインで重大な弱点を明らかにすることができる。
敵エージェントのスイートは、自律的に変化するテストケースに適用され、安全でないトリガー戦略を特定し、評価する。
私たちのフレームワークは、進化可能でスケーラブルで信頼性の高い、次世代の医療AIのセーフガードを提供します。
論文 参考訳(メタデータ) (2025-07-30T08:44:22Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - BadCLM: Backdoor Attack in Clinical Language Models for Electronic Health Records [6.497235628214084]
革新的注意に基づくバックドア攻撃手法BadCLM(Bad Clinical Language Models)について紹介する。
このテクニックは、モデル内にバックドアをこっそり埋め込んで、事前に定義されたトリガーが入力に存在しているときに、正確に機能しながら誤った予測を発生させる。
我々は,MIMIC IIIデータセットを用いた院内死亡予測タスクを通じてBadCLMの有効性を実証し,モデル整合性を損なう可能性を示した。
論文 参考訳(メタデータ) (2024-07-06T23:56:43Z) - Natural Language Programming in Medicine: Administering Evidence Based Clinical Workflows with Autonomous Agents Powered by Generative Large Language Models [29.05425041393475]
ジェネレーティブ・大型言語モデル(LLM)は医療において大きな可能性を秘めている。
本研究は, シミュレーション3次医療センターにおいて, 自律型エージェントとして機能するLSMの可能性を評価した。
論文 参考訳(メタデータ) (2024-01-05T15:09:57Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。