論文の概要: Differentially private federated learning for localized control of infectious disease dynamics
- arxiv url: http://arxiv.org/abs/2509.14024v1
- Date: Wed, 17 Sep 2025 14:28:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 18:41:50.871744
- Title: Differentially private federated learning for localized control of infectious disease dynamics
- Title(参考訳): 感染症動態の局所的制御のための異なる私的フェデレーション学習
- Authors: Raouf Kerkouche, Henrik Zunker, Mario Fritz, Martin J. Kühn,
- Abstract要約: 流行の時、感染拡大を緩和するために急激な反応が必要である。
本研究では,関連地域保健機関(LHA)が管理するドイツの郡と地域を基盤とした地域戦略を検討する。
詳細な状況データの提供に反対しないためにプライバシの保存を行うために,プライバシ保存予測手法を提案する。
- 参考スコア(独自算出の注目度): 35.86592939525651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In times of epidemics, swift reaction is necessary to mitigate epidemic spreading. For this reaction, localized approaches have several advantages, limiting necessary resources and reducing the impact of interventions on a larger scale. However, training a separate machine learning (ML) model on a local scale is often not feasible due to limited available data. Centralizing the data is also challenging because of its high sensitivity and privacy constraints. In this study, we consider a localized strategy based on the German counties and communities managed by the related local health authorities (LHA). For the preservation of privacy to not oppose the availability of detailed situational data, we propose a privacy-preserving forecasting method that can assist public health experts and decision makers. ML methods with federated learning (FL) train a shared model without centralizing raw data. Considering the counties, communities or LHAs as clients and finding a balance between utility and privacy, we study a FL framework with client-level differential privacy (DP). We train a shared multilayer perceptron on sliding windows of recent case counts to forecast the number of cases, while clients exchange only norm-clipped updates and the server aggregated updates with DP noise. We evaluate the approach on COVID-19 data on county-level during two phases. As expected, very strict privacy yields unstable, unusable forecasts. At a moderately strong level, the DP model closely approaches the non-DP model: $R^2= 0.94$ (vs. 0.95) and mean absolute percentage error (MAPE) of 26 % in November 2020; $R^2= 0.88$ (vs. 0.93) and MAPE of 21 % in March 2022. Overall, client-level DP-FL can deliver useful county-level predictions with strong privacy guarantees, and viable privacy budgets depend on epidemic phase, allowing privacy-compliant collaboration among health authorities for local forecasting.
- Abstract(参考訳): 流行の時、感染拡大を緩和するために急激な反応が必要である。
この反応に対して、局所的なアプローチにはいくつかの利点があり、必要なリソースを制限し、大規模な介入の影響を減らすことができる。
しかし、ローカルスケールで個別の機械学習(ML)モデルをトレーニングすることは、限られたデータのためにしばしば実現不可能である。
データの集中化も、感度とプライバシーの制約が高いため難しい。
本研究では,関連地域保健機関(LHA)が管理するドイツの郡と地域を基盤とした地域戦略を検討する。
詳細な状況データの提供に反対しないために、公衆衛生の専門家や意思決定者を支援するプライバシー保護予測手法を提案する。
フェデレートラーニング(FL)を用いたML手法は、生データを集中化せずに共有モデルを訓練する。
郡, コミュニティ, LHAをクライアントとし, ユーティリティとプライバシのバランスを見出した上で, クライアントレベルの差分プライバシ(DP)を備えたFLフレームワークについて検討した。
我々は,最近の事例数のスライディングウィンドウ上で共有多層パーセプトロンをトレーニングして事例数を予測する一方,クライアントは通常の更新のみを交換し,サーバはDPノイズで更新を集約する。
2つの段階において、郡レベルの新型コロナウイルスデータに対するアプローチを評価した。
予想通り、非常に厳格なプライバシーは不安定で使い物にならない予測をもたらす。
DPモデルは、2020年11月の26%の平均絶対パーセンテージ誤差(MAPE)、2022年3月の0.88ドル(vs. 0.93)、MAPE21%の非DPモデルに近づいた。
全体として、クライアントレベルのDP-FLは、強力なプライバシー保証を備えた有用な郡レベルの予測を提供することができる。
関連論文リスト
- An Interactive Framework for Implementing Privacy-Preserving Federated Learning: Experiments on Large Language Models [7.539653242367701]
フェデレートラーニング(FL)は、ユーザのデータをローカルデバイスに保存することで、プライバシを高める。
最近の攻撃は、トレーニング中にユーザーが共有したアップデートが、データに関する重要な情報を明らかにすることを実証している。
プライバシ実践者としての人間エンティティを統合し,モデルのプライバシとユーティリティの最適なトレードオフを決定するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-11T23:07:14Z) - Differentially Private Distributed Inference [2.4401219403555814]
臨床試験に協力する医療センターは、知識共有と機密データ保護のバランスを取る必要がある。
情報漏洩を制御するために差分プライバシー(DP)を用いてこの問題に対処する。
エージェントはログリニアルールを通じて信条統計を更新し、DPノイズは信頼性の高い識別性と厳格な性能保証を提供する。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。