論文の概要: An Investigation of Memorization Risk in Healthcare Foundation Models
- arxiv url: http://arxiv.org/abs/2510.12950v1
- Date: Tue, 14 Oct 2025 19:55:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.399417
- Title: An Investigation of Memorization Risk in Healthcare Foundation Models
- Title(参考訳): 医療ファウンデーションモデルにおける記憶リスクの検討
- Authors: Sana Tonekaboni, Lena Stempfle, Adibvafa Fallahpour, Walter Gerych, Marzyeh Ghassemi,
- Abstract要約: 構造化されたEHRデータに基づいてトレーニングされた基礎モデルのプライバシー関連リスクを評価するためのブラックボックス評価テストスイートを導入する。
本フレームワークは, 組込みと生成の両レベルでの記憶の探索方法と, モデル一般化と有害記憶の区別を目的とした。
- 参考スコア(独自算出の注目度): 21.94560578418064
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models trained on large-scale de-identified electronic health records (EHRs) hold promise for clinical applications. However, their capacity to memorize patient information raises important privacy concerns. In this work, we introduce a suite of black-box evaluation tests to assess privacy-related memorization risks in foundation models trained on structured EHR data. Our framework includes methods for probing memorization at both the embedding and generative levels, and aims to distinguish between model generalization and harmful memorization in clinically relevant settings. We contextualize memorization in terms of its potential to compromise patient privacy, particularly for vulnerable subgroups. We validate our approach on a publicly available EHR foundation model and release an open-source toolkit to facilitate reproducible and collaborative privacy assessments in healthcare AI.
- Abstract(参考訳): 大規模非特定電子健康記録(EHR)で訓練された基礎モデルは臨床応用の可能性を秘めている。
しかし、患者の情報を記憶する能力は、重要なプライバシー上の懸念を引き起こす。
本研究では,構造化EHRデータに基づいてトレーニングされた基礎モデルにおいて,プライバシー関連記憶リスクを評価するためのブラックボックス評価テストスイートを紹介する。
本フレームワークは, 組込みと生成の両レベルでの記憶の探索方法と, モデル一般化と有害記憶の区別を目的とした。
我々は、特に脆弱なサブグループにおいて、患者のプライバシーを侵害する可能性の観点から、記憶の文脈を定めている。
当社のアプローチを、公開可能なEHRファウンデーションモデルで検証し、医療AIにおける再現性と協調的なプライバシアセスメントを促進するためのオープンソースツールキットをリリースします。
関連論文リスト
- Integrating Genomics into Multimodal EHR Foundation Models [56.31910745104141]
本稿では,ポリジェニックリスクスコア(PRS)を基本データモダリティとして統合した,革新的なEHR基盤モデルを提案する。
このフレームワークは、臨床データと遺伝子前置詞の複雑な関係を学習することを目的としている。
このアプローチは、病気の予測、積極的な健康管理、リスク階層化、パーソナライズされた治療戦略に対する新たな洞察を解放するために重要である。
論文 参考訳(メタデータ) (2025-10-24T15:56:40Z) - Exploring Membership Inference Vulnerabilities in Clinical Large Language Models [42.52690697965999]
臨床大言語モデル(LLM)におけるメンバーシップ推論脆弱性の探索的研究について述べる。
最新の臨床質問応答モデルであるLlemrを用いて、標準的損失に基づく攻撃とドメインを動機としたパラフレージングに基づく摂動戦略の両方を評価する。
その結果は、コンテキスト認識、ドメイン固有のプライバシ評価、防衛の継続的な開発を動機付けている。
論文 参考訳(メタデータ) (2025-10-21T14:27:48Z) - An Analytical Approach to Privacy and Performance Trade-Offs in Healthcare Data Sharing [1.2179548969182572]
高齢者、頻繁に入院する患者、人種的少数派は、プライバシーの攻撃に弱い。
我々は,3つの匿名化手法($k$-anonymity, Zhengらによる手法,MO-OBAMモデル)を評価する。
論文 参考訳(メタデータ) (2025-08-25T21:36:47Z) - Medical Red Teaming Protocol of Language Models: On the Importance of User Perspectives in Healthcare Settings [48.096652370210016]
本稿では,患者と臨床医の両方の視点で医療領域に適した安全評価プロトコルを提案する。
医療用LLMの安全性評価基準を3つの異なる視点を取り入れたレッドチームで定義した最初の研究である。
論文 参考訳(メタデータ) (2025-07-09T19:38:58Z) - Differential Privacy-Driven Framework for Enhancing Heart Disease Prediction [7.473832609768354]
マシンラーニングは医療において重要であり、パーソナライズされた治療、早期疾患の検出、予測分析、画像解釈、薬物発見、効率的な手術、患者のモニタリングをサポートする。
本稿では、差分プライバシーとフェデレーション学習を含む機械学習手法を用いて、プライバシ保護モデルを開発する。
その結果、差分プライバシーを持つフェデレーション学習モデルを用いることで、テスト精度が85%向上し、患者データがプロセスを通して安全でプライベートであることが確認された。
論文 参考訳(メタデータ) (2025-04-25T01:27:40Z) - Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [58.61680631581921]
メンタルヘルス障害は、深い個人的・社会的負担を生じさせるが、従来の診断はリソース集約的でアクセシビリティが制限される。
本稿では、これらの課題を考察し、匿名化、合成データ、プライバシー保護トレーニングを含む解決策を提案する。
臨床的な意思決定をサポートし、メンタルヘルスの結果を改善する、信頼できるプライバシを意識したAIツールを進化させることを目標としている。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - FEDMEKI: A Benchmark for Scaling Medical Foundation Models via Federated Knowledge Injection [83.54960238236548]
FEDMEKIはデータのプライバシーを守るだけでなく、医療基盤モデルの能力を高める。
FEDMEKIは、医療ファンデーションモデルに対して、直接データを公開することなく、幅広い医療知識から学ぶことを可能にする。
論文 参考訳(メタデータ) (2024-08-17T15:18:56Z) - Improving Multiple Sclerosis Lesion Segmentation Across Clinical Sites:
A Federated Learning Approach with Noise-Resilient Training [75.40980802817349]
深層学習モデルは、自動的にMS病変を分節する約束を示しているが、正確な注釈付きデータの不足は、この分野の進歩を妨げている。
我々は,MS病変の不均衡分布とファジィ境界を考慮したDecoupled Hard Label Correction(DHLC)戦略を導入する。
また,集約型中央モデルを利用したCELC(Centrally Enhanced Label Correction)戦略も導入した。
論文 参考訳(メタデータ) (2023-08-31T00:36:10Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。