論文の概要: Federated Survival Analysis with Node-Level Differential Privacy: Private Kaplan-Meier Curves
- arxiv url: http://arxiv.org/abs/2509.00615v1
- Date: Sat, 30 Aug 2025 21:47:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.305677
- Title: Federated Survival Analysis with Node-Level Differential Privacy: Private Kaplan-Meier Curves
- Title(参考訳): ノードレベル差分プライバシーを用いたフェデレーションサバイバル分析:プライベートKaplan-Meier曲線
- Authors: Narasimha Raghavan Veeraragavan, Jan Franz Nygård,
- Abstract要約: 複数の医療管轄区域におけるカプラン・マイアー生存曲線の算出方法について検討する。
各サイトは曲線を1回だけ開示し、共通の時間格子の長さによってスケールが決定されるラプラスノイズを付加する。
我々は、NCCTG肺がんコホートに適合する離散コサイン変換、ハールウェーブレット収縮、適応型トータルバリアーデノイング、パラメトリックワイブルの4つのワンショットスムースティング手法をベンチマークした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate how to calculate Kaplan-Meier survival curves across multiple health-care jurisdictions while protecting patient privacy with node-level differential privacy. Each site discloses its curve only once, adding Laplace noise whose scale is determined by the length of the common time grid; the server then averages the noisy curves, so the overall privacy budget remains unchanged. We benchmark four one-shot smoothing techniques: Discrete Cosine Transform, Haar Wavelet shrinkage, adaptive Total-Variation denoising, and a parametric Weibull fit on the NCCTG lung-cancer cohort under five privacy levels and three partition scenarios (uniform, moderately skewed, highly imbalanced). Total-Variation gives the best mean accuracy, whereas the frequency-domain smoothers offer stronger worst-case robustness and the Weibull model shows the most stable behaviour at the strictest privacy setting. Across all methods the released curves keep the empirical log-rank type-I error below fifteen percent for privacy budgets of 0.5 and higher, demonstrating that clinically useful survival information can be shared without iterative training or heavy cryptography.
- Abstract(参考訳): ノードレベルの差分プライバシーで患者のプライバシーを保護しながら、複数の医療管轄区域でカプラン・マイアー生存曲線を計算する方法について検討した。
各サイトは一度だけカーブを開示し、共通のタイムグリッドの長さによってスケールが決定されるLaplaceノイズを追加します。
NCCTG肺がんコホートに適合するパラメトリックワイブルを5つのプライバシレベルと3つのパーティションシナリオ(均一で、適度に歪んだ、高度に不均衡な)でベンチマークする。
周波数領域のスムーズさはより強い最悪のケースの堅牢性をもたらし、Weibullモデルは最も厳密なプライバシー設定において最も安定した振る舞いを示す。
すべての方法において、リリースされた曲線は、0.5以上のプライバシー予算に対して、経験的ログランクのタイプIエラーを15%以下に保ち、臨床的に有用な生存情報を反復的なトレーニングや重暗号化なしで共有できることを実証している。
関連論文リスト
- Linear-Time User-Level DP-SCO via Robust Statistics [55.350093142673316]
ユーザレベルの差分プライベート凸最適化(DP-SCO)は、マシンラーニングアプリケーションにおけるユーザのプライバシ保護の重要性から、大きな注目を集めている。
微分プライベート勾配勾配(DP-SGD)に基づくような現在の手法は、しばしば高雑音蓄積と準最適利用に苦しむ。
これらの課題を克服するために、ロバストな統計、特に中央値とトリミング平均を利用する新しい線形時間アルゴリズムを導入する。
論文 参考訳(メタデータ) (2025-02-13T02:05:45Z) - A Differentially Private Kaplan-Meier Estimator for Privacy-Preserving Survival Analysis [12.067958128148112]
本稿では,遅延ノイズ,動的クリッピング,スムース化を施した新しいアルゴリズムを導入し,プライバシ保護型生存曲線を生成する。
NCCTG肺がんデータセットを用いて評価した結果,提案手法はルート平均二乗誤差(RMSE)を効果的に低減し,プライバシ予算全体にわたって精度を向上することが示された。
論文 参考訳(メタデータ) (2024-12-06T16:29:53Z) - Optimal Federated Learning for Nonparametric Regression with Heterogeneous Distributed Differential Privacy Constraints [5.3595271893779906]
本研究では,異なるサーバにまたがる分散サンプルのコンテキストにおける非パラメトリック回帰のためのフェデレーション学習について検討した。
統計の正確さとプライバシーの保護のトレードオフに光を当てている。
論文 参考訳(メタデータ) (2024-06-10T19:34:07Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - On the Statistical Complexity of Estimation and Testing under Privacy Constraints [17.04261371990489]
差分プライバシー下での統計的テストのパワーをプラグアンドプレイ方式で特徴付ける方法を示す。
プライバシ保護のレベルが非常に高い場合にのみ、プライバシの維持が顕著なパフォーマンス低下をもたらすことを示す。
最後に,プライベート凸解法であるDP-SGLDアルゴリズムを高信頼度で最大推定できることを示した。
論文 参考訳(メタデータ) (2022-10-05T12:55:53Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - A Differentially Private Framework for Deep Learning with Convexified
Loss Functions [4.059849656394191]
差分プライバシー(DP)は、基礎となるトレーニングセットのプライバシーを保護するためにディープラーニングに応用されている。
既存のDP実践は、客観的摂動、勾配摂動、出力摂動の3つのカテゴリに分類される。
本稿では,DPノイズをランダムにサンプリングしたニューロンに注入し,新しい出力摂動機構を提案する。
論文 参考訳(メタデータ) (2022-04-03T11:10:05Z) - Differential Privacy Dynamics of Langevin Diffusion and Noisy Gradient
Descent [10.409652277630132]
我々はLangevin拡散におけるプライバシー損失のダイナミクスをモデル化し、ノイズ勾配降下アルゴリズムに拡張する。
プライバシーの損失は指数関数的に速く収束する。
論文 参考訳(メタデータ) (2021-02-11T05:49:37Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。