論文の概要: An Investigation of Memorization Risk in Healthcare Foundation Models
- arxiv url: http://arxiv.org/abs/2510.12950v1
- Date: Tue, 14 Oct 2025 19:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.399417
- Title: An Investigation of Memorization Risk in Healthcare Foundation Models
- Title(参考訳): 医療ファウンデーションモデルにおける記憶リスクの検討
- Authors: Sana Tonekaboni, Lena Stempfle, Adibvafa Fallahpour, Walter Gerych, Marzyeh Ghassemi,
- Abstract要約: 構造化されたEHRデータに基づいてトレーニングされた基礎モデルのプライバシー関連リスクを評価するためのブラックボックス評価テストスイートを導入する。
本フレームワークは, 組込みと生成の両レベルでの記憶の探索方法と, モデル一般化と有害記憶の区別を目的とした。
- 参考スコア(独自算出の注目度): 21.94560578418064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models trained on large-scale de-identified electronic health records (EHRs) hold promise for clinical applications. However, their capacity to memorize patient information raises important privacy concerns. In this work, we introduce a suite of black-box evaluation tests to assess privacy-related memorization risks in foundation models trained on structured EHR data. Our framework includes methods for probing memorization at both the embedding and generative levels, and aims to distinguish between model generalization and harmful memorization in clinically relevant settings. We contextualize memorization in terms of its potential to compromise patient privacy, particularly for vulnerable subgroups. We validate our approach on a publicly available EHR foundation model and release an open-source toolkit to facilitate reproducible and collaborative privacy assessments in healthcare AI.
- Abstract(参考訳): 大規模非特定電子健康記録(EHR)で訓練された基礎モデルは臨床応用の可能性を秘めている。
しかし、患者の情報を記憶する能力は、重要なプライバシー上の懸念を引き起こす。
本研究では,構造化EHRデータに基づいてトレーニングされた基礎モデルにおいて,プライバシー関連記憶リスクを評価するためのブラックボックス評価テストスイートを紹介する。
本フレームワークは, 組込みと生成の両レベルでの記憶の探索方法と, モデル一般化と有害記憶の区別を目的とした。
我々は、特に脆弱なサブグループにおいて、患者のプライバシーを侵害する可能性の観点から、記憶の文脈を定めている。
当社のアプローチを、公開可能なEHRファウンデーションモデルで検証し、医療AIにおける再現性と協調的なプライバシアセスメントを促進するためのオープンソースツールキットをリリースします。
関連論文リスト
- An Analytical Approach to Privacy and Performance Trade-Offs in Healthcare Data Sharing [1.2179548969182572]
高齢者、頻繁に入院する患者、人種的少数派は、プライバシーの攻撃に弱い。
我々は,3つの匿名化手法($k$-anonymity, Zhengらによる手法,MO-OBAMモデル)を評価する。
論文 参考訳(メタデータ) (2025-08-25T21:36:47Z) - Medical Red Teaming Protocol of Language Models: On the Importance of User Perspectives in Healthcare Settings [48.096652370210016]
本稿では,患者と臨床医の両方の視点で医療領域に適した安全評価プロトコルを提案する。
医療用LLMの安全性評価基準を3つの異なる視点を取り入れたレッドチームで定義した最初の研究である。
論文 参考訳(メタデータ) (2025-07-09T19:38:58Z) - Differential Privacy-Driven Framework for Enhancing Heart Disease Prediction [7.473832609768354]
マシンラーニングは医療において重要であり、パーソナライズされた治療、早期疾患の検出、予測分析、画像解釈、薬物発見、効率的な手術、患者のモニタリングをサポートする。
本稿では、差分プライバシーとフェデレーション学習を含む機械学習手法を用いて、プライバシ保護モデルを開発する。
その結果、差分プライバシーを持つフェデレーション学習モデルを用いることで、テスト精度が85%向上し、患者データがプロセスを通して安全でプライベートであることが確認された。
論文 参考訳(メタデータ) (2025-04-25T01:27:40Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。