論文の概要: An Analytical Approach to Privacy and Performance Trade-Offs in Healthcare Data Sharing
- arxiv url: http://arxiv.org/abs/2508.18513v1
- Date: Mon, 25 Aug 2025 21:36:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.604959
- Title: An Analytical Approach to Privacy and Performance Trade-Offs in Healthcare Data Sharing
- Title(参考訳): 医療データ共有におけるプライバシとパフォーマンスのトレードオフに関する分析的アプローチ
- Authors: Yusi Wei, Hande Y. Benson, Muge Capan,
- Abstract要約: 高齢者、頻繁に入院する患者、人種的少数派は、プライバシーの攻撃に弱い。
我々は,3つの匿名化手法($k$-anonymity, Zhengらによる手法,MO-OBAMモデル)を評価する。
- 参考スコア(独自算出の注目度): 1.2179548969182572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The secondary use of healthcare data is vital for research and clinical innovation, but it raises concerns about patient privacy. This study investigates how to balance privacy preservation and data utility in healthcare data sharing, considering the perspectives of both data providers and data users. Using a dataset of adult patients hospitalized between 2013 and 2015, we predict whether sepsis was present at admission or developed during the hospital stay. We identify sub-populations, such as older adults, frequently hospitalized patients, and racial minorities, that are especially vulnerable to privacy attacks due to their unique combinations of demographic and healthcare utilization attributes. These groups are also critical for machine learning (ML) model performance. We evaluate three anonymization methods-$k$-anonymity, the technique by Zheng et al., and the MO-OBAM model-based on their ability to reduce re-identification risk while maintaining ML utility. Results show that $k$-anonymity offers limited protection. The methods of Zheng et al. and MO-OBAM provide stronger privacy safeguards, with MO-OBAM yielding the best utility outcomes: only a 2% change in precision and recall compared to the original dataset. This work provides actionable insights for healthcare organizations on how to share data responsibly. It highlights the need for anonymization methods that protect vulnerable populations without sacrificing the performance of data-driven models.
- Abstract(参考訳): 医療データの二次的利用は、研究や臨床革新には不可欠だが、患者のプライバシーに対する懸念が高まる。
本研究では、医療データ共有におけるプライバシ保護とデータユーティリティのバランスを、データプロバイダとデータユーザの両方の観点から検討する。
2013年から2015年の間に入院した成人患者のデータセットを用いて入院時に敗血症があったか入院中に発症したかを予測する。
高齢者、頻繁に入院する患者、人種的マイノリティなどのサブ人口は、人口統計学的および医療的利用特性の独特な組み合わせにより、特にプライバシー攻撃に弱い。
これらのグループは、機械学習(ML)モデルのパフォーマンスにも重要である。
我々は,MLユーティリティを維持しながら再識別リスクを低減する能力に基づいて,匿名化手法として$k$-anonymity,Zhengらによるテクニック,MO-OBAMモデルの3つを評価する。
結果は、$k$-anonymityが限定的な保護を提供することを示している。
Zheng et al と MO-OBAM の方法はより強力なプライバシ保護を提供し、MO-OBAM は最も便利な結果をもたらす。
この作業は、医療機関に対して、データを責任を持って共有する方法に関する実用的な洞察を提供する。
データ駆動モデルの性能を犠牲にすることなく、脆弱な人口を保護する匿名化手法の必要性を強調している。
関連論文リスト
- Differential Privacy-Driven Framework for Enhancing Heart Disease Prediction [7.473832609768354]
マシンラーニングは医療において重要であり、パーソナライズされた治療、早期疾患の検出、予測分析、画像解釈、薬物発見、効率的な手術、患者のモニタリングをサポートする。
本稿では、差分プライバシーとフェデレーション学習を含む機械学習手法を用いて、プライバシ保護モデルを開発する。
その結果、差分プライバシーを持つフェデレーション学習モデルを用いることで、テスト精度が85%向上し、患者データがプロセスを通して安全でプライベートであることが確認された。
論文 参考訳(メタデータ) (2025-04-25T01:27:40Z) - Defending Against Gradient Inversion Attacks for Biomedical Images via Learnable Data Perturbation [3.5280398899666903]
連合学習における勾配反転攻撃に対する防御効果を示す。
提案手法は,再構成画像の分類において,攻撃者の精度を12.5%低下させることで,ベースラインを上回り得る。
その結果,医療データに対する汎用的防衛の可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-19T01:53:23Z) - Privacy-Preserving Heterogeneous Federated Learning for Sensitive Healthcare Data [12.30620268528346]
我々は、AAFV(Abstention-Aware Federated Voting)と呼ばれる新しいフレームワークを提案する。
AAFVは、データのプライバシを同時に保護しながら、共同で機密的に異質なローカルモデルをトレーニングすることができる。
特に,提案手法では,不均一な局所モデルから高信頼投票を選択するために,しきい値に基づく棄権方式を採用している。
論文 参考訳(メタデータ) (2024-06-15T08:43:40Z) - Preserving The Safety And Confidentiality Of Data Mining Information In Health Care: A literature review [0.0]
PPDM技術は、膨大な量のデータから実行可能な洞察を抽出することを可能にする。
機密情報の開示は患者のプライバシーを侵害する。
本稿では,プライバシ保護機構,データ保護規制,緩和戦略に関する関連研究のレビューを行う。
論文 参考訳(メタデータ) (2023-10-30T05:32:15Z) - Large Language Models for Healthcare Data Augmentation: An Example on
Patient-Trial Matching [49.78442796596806]
患者-心電図マッチング(LLM-PTM)のための革新的なプライバシ対応データ拡張手法を提案する。
本実験では, LLM-PTM法を用いて平均性能を7.32%向上させ, 新しいデータへの一般化性を12.12%向上させた。
論文 参考訳(メタデータ) (2023-03-24T03:14:00Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。