論文の概要: Privacy-Preserving Cohort Analytics for Personalized Health Platforms: A Differentially Private Framework with Stochastic Risk Modeling
- arxiv url: http://arxiv.org/abs/2601.12105v1
- Date: Sat, 17 Jan 2026 16:59:41 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-01-21 12:32:20.432387
- Title: Privacy-Preserving Cohort Analytics for Personalized Health Platforms: A Differentially Private Framework with Stochastic Risk Modeling
- Title(参考訳): パーソナライズされた健康プラットフォームのためのプライバシ保護コホート分析:確率的リスクモデリングを用いた異なるプライベートフレームワーク
- Authors: Richik Chakraborty, Lawrence Liu, Syed Hasnain,
- Abstract要約: コホートに基づく健康データ収集は、非自明なプライバシーリスクをもたらす。
本稿では、決定論的コホート制約、差分プライバシー機構、合成ベースライン生成を組み合わせたプライバシー保護コホート分析フレームワークを提案する。
リスクモデリングは、解釈可能な意思決定関連指標を提供することによって、正式なプライバシ保証を補完することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Personalized health analytics increasingly rely on population benchmarks to provide contextual insights such as ''How do I compare to others like me?'' However, cohort-based aggregation of health data introduces nontrivial privacy risks, particularly in interactive and longitudinal digital platforms. Existing privacy frameworks such as $k$-anonymity and differential privacy provide essential but largely static guarantees that do not fully capture the cumulative, distributional, and tail-dominated nature of re-identification risk in deployed systems. In this work, we present a privacy-preserving cohort analytics framework that combines deterministic cohort constraints, differential privacy mechanisms, and synthetic baseline generation to enable personalized population comparisons while maintaining strong privacy protections. We further introduce a stochastic risk modeling approach that treats re-identification risk as a random variable evolving over time, enabling distributional evaluation through Monte Carlo simulation. Adapting quantitative risk measures from financial mathematics, we define Privacy Loss at Risk (P-VaR) to characterize worst-case privacy outcomes under realistic cohort dynamics and adversary assumptions. We validate our framework through system-level analysis and simulation experiments, demonstrating how privacy-utility tradeoffs can be operationalized for digital health platforms. Our results suggest that stochastic risk modeling complements formal privacy guarantees by providing interpretable, decision-relevant metrics for platform designers, regulators, and clinical informatics stakeholders.
- Abstract(参考訳): パーソナライズされた健康分析は、"私のような人たちとどのように比較するのか"といった文脈的な洞察を提供するために、人口のベンチマークにますます依存していますが、コホートベースの健康データ収集は、特にインタラクティブで縦断的なデジタルプラットフォームにおいて、非自明なプライバシーリスクをもたらします。
既存の$k$匿名性や差分プライバシーといったプライバシーフレームワークは、デプロイされたシステムにおける再識別リスクの累積的、分散的、尾行的な性質を完全に把握しない、必須だがほぼ静的な保証を提供する。
本研究では、決定論的コホート制約、差分プライバシー機構、および合成ベースライン生成を組み合わせたプライバシー保護コホート分析フレームワークを提案し、強力なプライバシー保護を維持しつつ、パーソナライズされた人口比較を可能にする。
さらに,再同定リスクを時間とともに変化するランダム変数として扱う確率的リスクモデリング手法を導入し,モンテカルロシミュレーションによる分布評価を可能にする。
金融数学から量的リスク尺度に適応し、現実的なコホート力学と敵の仮定の下で最悪のプライバシー結果を特定するために、プライバシ・ロス・ア・リスク(P-VaR)を定義する。
我々は,システムレベルの分析とシミュレーション実験を通じて,デジタルヘルスプラットフォームにおいて,プライバシとユーティリティのトレードオフをどのように運用できるかを実証する。
統計的リスクモデリングは, プラットフォーム設計者, 規制当局, 臨床情報提供者に対して, 解釈可能な意思決定関連指標を提供することによって, 正式なプライバシ保証を補完すると考えられる。
関連論文リスト
- Causal and Federated Multimodal Learning for Cardiovascular Risk Prediction under Heterogeneous Populations [0.0]
我々は、クロスモーダルトランスフォーマーとグラフニューラルネットワークを統合した単一のマルチモーダル学習フレームワークを作成し、因果表現学習を行い、パーソナライズされたCVDリスクを測定する。
このモデルは、ゲノム変異、心臓MRI、心電図波形、ウェアラブルストリーム、構造化ERHデータを組み合わせてリスクを予測する。
本研究は,CVD予測に対する臨床的信頼度,解釈性,プライバシへの原則的アプローチの道を開くものである。
論文 参考訳(メタデータ) (2026-01-05T14:32:49Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Adaptable Cardiovascular Disease Risk Prediction from Heterogeneous Data using Large Language Models [70.64969663547703]
AdaCVDは、英国バイオバンクから50万人以上の参加者を対象に、大規模な言語モデルに基づいて構築された適応可能なCVDリスク予測フレームワークである。
包括的かつ可変的な患者情報を柔軟に取り込み、構造化データと非構造化テキストの両方をシームレスに統合し、最小限の追加データを使用して新規患者の集団に迅速に適応する。
論文 参考訳(メタデータ) (2025-05-30T14:42:02Z) - From Mean to Extreme: Formal Differential Privacy Bounds on the Success of Real-World Data Reconstruction Attacks [54.25638567385662]
機械学習における微分プライバシーは、しばしばメンバーシップ推論に対する保証として解釈される。
DP予算を定量的な保護に翻訳することで、データ再構築の脅威を悪化させることは、依然として困難な課題である。
本稿では、実証された"ゼロスクラッチ"攻撃のメカニズムに合わせた、最初の公式なプライバシー境界を導出することで、臨界ギャップを埋める。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Simulation-based Bayesian Inference from Privacy Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。