論文の概要: Differentially Private Computation of Basic Reproduction Numbers in Networked Epidemic Models
- arxiv url: http://arxiv.org/abs/2309.17284v1
- Date: Fri, 29 Sep 2023 14:38:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 14:15:19.817091
- Title: Differentially Private Computation of Basic Reproduction Numbers in Networked Epidemic Models
- Title(参考訳): ネットワーク型エピデミックモデルにおける基本再生数の微分プライベート計算
- Authors: Bo Chen, Baike She, Calvin Hawkins, Alex Benvenuti, Brandon Fallin, Philip E. Paré, Matthew Hale,
- Abstract要約: 本研究では,ネットワーク化流行モデルの再生数を,差分的にプライベートに計算し,解放するフレームワークを開発する。
実世界の条件下では、平均して7.6%の誤差を発生させながら、差分的にプライベートな方法でR_0$を計算することができる。
- 参考スコア(独自算出の注目度): 3.1966459264817875
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The basic reproduction number of a networked epidemic model, denoted $R_0$, can be computed from a network's topology to quantify epidemic spread. However, disclosure of $R_0$ risks revealing sensitive information about the underlying network, such as an individual's relationships within a social network. Therefore, we propose a framework to compute and release $R_0$ in a differentially private way. First, we provide a new result that shows how $R_0$ can be used to bound the level of penetration of an epidemic within a single community as a motivation for the need of privacy, which may also be of independent interest. We next develop a privacy mechanism to formally safeguard the edge weights in the underlying network when computing $R_0$. Then we formalize tradeoffs between the level of privacy and the accuracy of values of the privatized $R_0$. To show the utility of the private $R_0$ in practice, we use it to bound this level of penetration under privacy, and concentration bounds on these analyses show they remain accurate with privacy implemented. We apply our results to real travel data gathered during the spread of COVID-19, and we show that, under real-world conditions, we can compute $R_0$ in a differentially private way while incurring errors as low as $7.6\%$ on average.
- Abstract(参考訳): ネットワーク流行モデルの基本再生数である$R_0$は、ネットワークのトポロジーから計算し、流行拡散を定量化することができる。
しかし、R_0$のリスクの開示は、ソーシャルネットワーク内の個人の関係など、基盤となるネットワークに関する機密情報を明らかにする。
そこで我々は差分的にプライベートな方法で$R_0$を計算・リリースするフレームワークを提案する。
まず、プライバシの必要性のモチベーションとして、1つのコミュニティ内での流行のレベルを、R_0$で制限できることを示す。
次に、R_0$の計算において、基盤ネットワークのエッジウェイトを正式に保護するためのプライバシメカニズムを開発する。
次に、プライバシのレベルと、民営化された$R_0$の値の精度の間のトレードオフを形式化する。
プライベートな$R_0$の実用性を示すために、私たちはこのレベルの浸透をプライバシに拘束するためにそれを使用します。
我々は、新型コロナウイルスの感染拡大時に収集された実際の旅行データに適用し、実世界の状況下では、平均して7.6\%の誤差を発生させながら、差分的にプライベートな方法でR_0$を計算することができることを示した。
関連論文リスト
- PrIsing: Privacy-Preserving Peer Effect Estimation via Ising Model [3.4308998211298314]
我々は、個々のエージェントの結果のプライバシーを保護するために特別に設計された、新しい$(varepsilon,delta)$-differentially privateアルゴリズムを提案する。
提案アルゴリズムは,目的摂動手法を用いて,単一ネットワークを用いた自然パラメータの正確な推定を可能にする。
論文 参考訳(メタデータ) (2024-01-29T21:56:39Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - To share or not to share: What risks would laypeople accept to give sensitive data to differentially-private NLP systems? [14.586789605230672]
私たちは、$varepsilon$の値を決定することは、研究者やシステム開発者の手だけにすべきではない、と論じています。
我々は,不確実な意思決定状況における人々の行動を研究するために,行動実験(311名)を実施している。
論文 参考訳(メタデータ) (2023-07-13T12:06:48Z) - Probing the Transition to Dataset-Level Privacy in ML Models Using an
Output-Specific and Data-Resolved Privacy Profile [23.05994842923702]
差分プライバシーメカニズムを用いてデータセットでトレーニングされたモデルが、近隣のデータセットでトレーニングされた結果の分布によってカバーされる範囲を定量化するプライバシー指標について検討する。
プライバシプロファイルは、近隣のディストリビューションで発生する不明瞭性への観察された遷移を、$epsilon$の減少として調査するために使用できることを示す。
論文 参考訳(メタデータ) (2023-06-27T20:39:07Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Analyzing Privacy Leakage in Machine Learning via Multiple Hypothesis
Testing: A Lesson From Fano [83.5933307263932]
本研究では,離散データに対するデータ再構成攻撃について検討し,仮説テストの枠組みの下で解析する。
基礎となるプライベートデータが$M$のセットから値を取ると、ターゲットのプライバシパラメータ$epsilon$が$O(log M)$になる。
論文 参考訳(メタデータ) (2022-10-24T23:50:12Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Learning from Mixtures of Private and Public Populations [25.365515662502784]
プライバシー制約下での教師あり学習の新しいモデルについて検討する。
目標は、プライベートな例に限って、差分プライバシーを満たす学習アルゴリズムを設計することである。
論文 参考訳(メタデータ) (2020-08-01T20:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。