論文の概要: SoK: Privacy-aware LLM in Healthcare: Threat Model, Privacy Techniques, Challenges and Recommendations
- arxiv url: http://arxiv.org/abs/2601.10004v1
- Date: Thu, 15 Jan 2026 02:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.958035
- Title: SoK: Privacy-aware LLM in Healthcare: Threat Model, Privacy Techniques, Challenges and Recommendations
- Title(参考訳): SoK:医療におけるプライバシを意識したLLM:脅威モデル、プライバシ技術、課題、勧告
- Authors: Mohoshin Ara Tahera, Karamveer Singh Sidhu, Shuvalaxmi Dass, Sajal Saha,
- Abstract要約: 大きな言語モデル(LLM)は、臨床的な意思決定を支援し、患者のケアを強化するために、医療においてますます採用されている。
この研究は、データ前処理、ファインチューニング、推論という3つの中核LSMフェーズにわたる進化する脅威の展望を、現実的な医療環境の中で検証する。
我々は、各フェーズにおける敵、能力、攻撃面を特徴付ける詳細な脅威モデルを提示し、既存のプライバシ保護技術(PPT)がこれらの脆弱性を緩和しようとしているかを体系化する。
- 参考スコア(独自算出の注目度): 0.6533091401094101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are increasingly adopted in healthcare to support clinical decision-making, summarize electronic health records (EHRs), and enhance patient care. However, this integration introduces significant privacy and security challenges, driven by the sensitivity of clinical data and the high-stakes nature of medical workflows. These risks become even more pronounced across heterogeneous deployment environments, ranging from small on-premise hospital systems to regional health networks, each with unique resource limitations and regulatory demands. This Systematization of Knowledge (SoK) examines the evolving threat landscape across the three core LLM phases: Data preprocessing, Fine-tuning, and Inference within realistic healthcare settings. We present a detailed threat model that characterizes adversaries, capabilities, and attack surfaces at each phase, and we systematize how existing privacy-preserving techniques (PPTs) attempt to mitigate these vulnerabilities. While existing defenses show promise, our analysis identifies persistent limitations in securing sensitive clinical data across diverse operational tiers. We conclude with phase-aware recommendations and future research directions aimed at strengthening privacy guarantees for LLMs in regulated environments. This work provides a foundation for understanding the intersection of LLMs, threats, and privacy in healthcare, offering a roadmap toward more robust and clinically trustworthy AI systems.
- Abstract(参考訳): 大規模言語モデル(LLM)は、臨床意思決定を支援し、電子的健康記録(EHR)を要約し、患者のケアを強化するために、医療においてますます採用されている。
しかし、この統合は、臨床データの感度と医療ワークフローの高度な性質によって引き起こされる、重要なプライバシーとセキュリティ上の課題をもたらす。
これらのリスクは、小規模の病院システムから地域医療ネットワークまで、それぞれに固有のリソース制限と規制上の要求がある、異種展開環境においてさらに顕著になる。
この知識の体系化(SoK)は、データ前処理、ファインチューニング、推論という3つの中核LCMフェーズにわたる進化する脅威の展望を、現実的な医療環境の中で検証する。
我々は、各フェーズにおける敵、能力、攻撃面を特徴付ける詳細な脅威モデルを提示し、既存のプライバシ保護技術(PPT)がこれらの脆弱性を緩和しようとしているかを体系化する。
既存の防衛は将来性を示すが,本分析では,多彩な操作層にわたる機密性のある臨床データを保護する上で,永続的な限界を同定する。
我々は、規制環境におけるLCMのプライバシー保証を強化することを目的とした、フェーズアウェアの勧告と今後の研究方向性を結論付ける。
この研究は、医療におけるLSMの交差点、脅威、プライバシを理解する基盤を提供し、より堅牢で臨床的に信頼できるAIシステムへのロードマップを提供する。
関連論文リスト
- Privacy Challenges and Solutions in Retrieval-Augmented Generation-Enhanced LLMs for Healthcare Chatbots: A Review of Applications, Risks, and Future Directions [3.36168223686933]
検索増強世代 (RAG) は, 大規模言語モデルを臨床・生物医療システムに統合するための転換的アプローチとして急速に発展してきた。
このレビューは、医療におけるRAGアプリケーションの現状を詳細に分析する。
論文 参考訳(メタデータ) (2025-11-14T14:33:58Z) - Exploring Membership Inference Vulnerabilities in Clinical Large Language Models [42.52690697965999]
臨床大言語モデル(LLM)におけるメンバーシップ推論脆弱性の探索的研究について述べる。
最新の臨床質問応答モデルであるLlemrを用いて、標準的損失に基づく攻撃とドメインを動機としたパラフレージングに基づく摂動戦略の両方を評価する。
その結果は、コンテキスト認識、ドメイン固有のプライバシ評価、防衛の継続的な開発を動機付けている。
論文 参考訳(メタデータ) (2025-10-21T14:27:48Z) - Medical Red Teaming Protocol of Language Models: On the Importance of User Perspectives in Healthcare Settings [48.096652370210016]
本稿では,患者と臨床医の両方の視点で医療領域に適した安全評価プロトコルを提案する。
医療用LLMの安全性評価基準を3つの異なる視点を取り入れたレッドチームで定義した最初の研究である。
論文 参考訳(メタデータ) (2025-07-09T19:38:58Z) - A Comprehensive Survey on the Trustworthiness of Large Language Models in Healthcare [8.378348088931578]
医療における大規模言語モデル(LLM)の適用は、臨床意思決定、医学研究、患者医療の強化に大きく貢献する。
実際の臨床環境への統合は、信頼性、特に真理性、プライバシー、安全性、堅牢性、公正性、説明可能性に関する重要な懸念を提起する。
論文 参考訳(メタデータ) (2025-02-21T18:43:06Z) - Large Language Models in Healthcare [4.119811542729794]
大規模言語モデル(LLM)は医療の変革を約束する。
彼らの成功には、臨床ニーズに合わせて厳格な開発、適応、評価戦略が必要である。
論文 参考訳(メタデータ) (2025-02-06T20:53:33Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。