論文の概要: Differentially Private Release of Israel's National Registry of Live Births
- arxiv url: http://arxiv.org/abs/2405.00267v1
- Date: Wed, 1 May 2024 01:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-02 16:47:02.552963
- Title: Differentially Private Release of Israel's National Registry of Live Births
- Title(参考訳): イスラエルの生誕の国家登録簿を個人公開
- Authors: Shlomi Hod, Ran Canetti,
- Abstract要約: 2024年2月、イスラエル保健省は2014年にイスラエルで生誕のマイクロデータを公表した。
本稿では,そのリリースに必要な方法論について述べる。
我々は、差分プライバシを、リリースデータセットによって引き起こされるプライバシー損失の正式な尺度として使用しています。
- 参考スコア(独自算出の注目度): 3.2829103883085833
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In February 2024, Israel's Ministry of Health released microdata of live births in Israel in 2014. The dataset is based on Israel's National Registry of Live Births and offers substantial value in multiple areas, such as scientific research and policy-making. At the same time, the data was processed so as to protect the privacy of 2014's mothers and newborns. The release was co-designed by the authors together with stakeholders from both inside and outside the Ministry of Health. This paper presents the methodology used to obtain that release. It also describes the considerations involved in choosing the methodology and the process followed. We used differential privacy as our formal measure of the privacy loss incurred by the released dataset. More concretely, we prove that the released dataset is differentially private with privacy loss budget \varepsilon = 9.98. We extensively used the private selection algorithm of Liu and Talwar (STOC 2019) to bundle together multiple steps such as data transformation, model generation algorithm, hyperparameter selection, and evaluation. The model generation algorithm selected was PrivBayes (Zhang et al., SIGMOD 2014). The evaluation was based on a list of acceptance criteria, which were also disclosed only approximately so as to provide an overall differential privacy guarantee. We also discuss concrete challenges and barriers that appear relevant to the next steps of this pilot project, as well as to future differentially private releases.
- Abstract(参考訳): 2024年2月、イスラエル保健省は2014年にイスラエルで生誕のマイクロデータを公表した。
このデータセットはイスラエルの生誕の国家登録簿に基づいており、科学研究や政策立案など、複数の分野でかなりの価値を提供している。
同時に、データは2014年の母親と新生児のプライバシーを守るために処理された。
このリリースは、著者たちと、内外の利害関係者によって共同設計された。
本稿では,そのリリースに必要な方法論について述べる。
また、方法論の選択に関わる考慮事項と、それに続くプロセスについても説明している。
私たちは、差分プライバシーを、リリースデータセットによって引き起こされたプライバシー損失の正式な尺度として使用しました。
より具体的には、リリースされたデータセットは、プライバシ損失予算が9.98である、差分プライベートであることが証明されている。
我々は、LiuとTalwar(STOC 2019)のプライベートセレクションアルゴリズムを広範囲に使用し、データ変換、モデル生成アルゴリズム、ハイパーパラメータ選択、評価などの複数のステップをまとめました。
選択したモデル生成アルゴリズムはPrivBayes (Zhang et al , SIGMOD 2014)である。
評価は受理基準のリストに基づいており、これはまた、全体的な差分プライバシー保証を提供するために、ほぼ開示されただけである。
我々はまた、このパイロットプロジェクトの次のステップと将来の異なるプライベートリリースに関連する、具体的な課題と障壁についても論じます。
関連論文リスト
- Enforcing Demographic Coherence: A Harms Aware Framework for Reasoning about Private Data Release [14.939460540040459]
データプライバシに必要であると主張するプライバシ攻撃にインスパイアされた、人口統計コヒーレンスを導入します。
我々のフレームワークは信頼性評価予測に重点を置いており、ほぼすべてのデータインフォームドプロセスから蒸留することができる。
差分的にプライベートなデータリリースはすべて、人口統計学的にコヒーレントであること、および、差分的にプライベートではない人口統計学的にコヒーレントなアルゴリズムがあることを実証する。
論文 参考訳(メタデータ) (2025-02-04T20:42:30Z) - Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - RASE: Efficient Privacy-preserving Data Aggregation against Disclosure Attacks for IoTs [2.1765174838950494]
センサデバイスが生み出すデータを収集・保護する新たなパラダイムについて検討する。
データアグリゲーションとプライバシ保護の共同設計に関するこれまでの研究は、信頼されたフュージョンセンターがプライバシ体制に準拠していることを前提としている。
本稿では,3段階の逐次手順,雑音付加,ランダムな置換,パラメータ推定に一般化可能な新しいパラダイム(RASE)を提案する。
論文 参考訳(メタデータ) (2024-05-31T15:21:38Z) - Synthetic Census Data Generation via Multidimensional Multiset Sum [7.900694093691988]
我々は、Censusの統計データのみから合成マイクロデータを生成するツールを提供する。
我々は,本手法が実際にうまく機能していることを示し,その性能を説明する理論的議論を行う。
論文 参考訳(メタデータ) (2024-04-15T19:06:37Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Learning across Data Owners with Joint Differential Privacy [13.531808240117645]
データ所有者は、共同微分プライバシーと呼ばれるプライバシー概念の下で、機械学習モデルを協調的に訓練する環境について検討する。
この設定では、各データ所有者のためにトレーニングされたモデルは、プライバシを考慮していない$j$のデータと、異なるプライバシを保証する他の所有者のデータを使用します。
本稿では,DP-SGDの変種であるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-25T05:11:40Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z) - Learning from Mixtures of Private and Public Populations [25.365515662502784]
プライバシー制約下での教師あり学習の新しいモデルについて検討する。
目標は、プライベートな例に限って、差分プライバシーを満たす学習アルゴリズムを設計することである。
論文 参考訳(メタデータ) (2020-08-01T20:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。