論文の概要: Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics
- arxiv url: http://arxiv.org/abs/2302.01763v1
- Date: Wed, 11 Jan 2023 19:16:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-12 13:13:54.902834
- Title: Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics
- Title(参考訳): ゲノムデータビーコンにおけるプライバシとユーティリティのトレードオフと概要統計
- Authors: Rajagopal Venkatesaramani, Zhiyu Wan, Bradley A. Malin, Yevgeniy
Vorobeychik
- Abstract要約: 要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
- 参考スコア(独自算出の注目度): 26.99521354120141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The collection and sharing of genomic data are becoming increasingly
commonplace in research, clinical, and direct-to-consumer settings. The
computational protocols typically adopted to protect individual privacy include
sharing summary statistics, such as allele frequencies, or limiting query
responses to the presence/absence of alleles of interest using web-services
called Beacons. However, even such limited releases are susceptible to
likelihood-ratio-based membership-inference attacks. Several approaches have
been proposed to preserve privacy, which either suppress a subset of genomic
variants or modify query responses for specific variants (e.g., adding noise,
as in differential privacy). However, many of these approaches result in a
significant utility loss, either suppressing many variants or adding a
substantial amount of noise. In this paper, we introduce optimization-based
approaches to explicitly trade off the utility of summary data or Beacon
responses and privacy with respect to membership-inference attacks based on
likelihood-ratios, combining variant suppression and modification. We consider
two attack models. In the first, an attacker applies a likelihood-ratio test to
make membership-inference claims. In the second model, an attacker uses a
threshold that accounts for the effect of the data release on the separation in
scores between individuals in the dataset and those who are not. We further
introduce highly scalable approaches for approximately solving the
privacy-utility tradeoff problem when information is either in the form of
summary statistics or presence/absence queries. Finally, we show that the
proposed approaches outperform the state of the art in both utility and privacy
through an extensive evaluation with public datasets.
- Abstract(参考訳): ゲノムデータの収集と共有は、研究、臨床、消費者への直接的設定においてますます一般的になっている。
個々のプライバシを保護するために一般的に使用される計算プロトコルには、アレル頻度などの要約統計の共有や、ビーコンと呼ばれるwebサービスを使用して興味のあるアレルの存在/欠如に対するクエリ応答の制限が含まれる。
しかし、そのような限定リリースでさえ、確率比に基づくメンバーシップ推論攻撃の影響を受けやすい。
プライバシを保存するためにいくつかのアプローチが提案されており、ゲノム変異のサブセットを抑えるか、特定の変種に対してクエリ応答を変更する(例えば、差分プライバシーのようにノイズを加える)。
しかし、これらのアプローチの多くは、多くの変種を抑えるか、かなりのノイズを加えるか、大きなユーティリティ損失をもたらす。
本稿では,サマリデータやビーコン応答やプライバシの利便性を,不確実性に基づくメンバシップ回避攻撃に対して明確に切り離すための最適化に基づく手法を提案する。
我々は2つの攻撃モデルを考える。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2のモデルでは、攻撃者はデータセット内の個人とそうでない人のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
さらに,情報に要約統計や存在/存在問合せの形式がある場合,プライバシーとユーティリティのトレードオフ問題を解決するために,高度にスケーラブルなアプローチを導入する。
最後に,提案手法は,公共データセットによる広範囲な評価を通じて,実用性とプライバシの両面で技術状況よりも優れていることを示す。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Bayes-Nash Generative Privacy Protection Against Membership Inference Attacks [24.330984323956173]
本稿では,データ共有機構出力のプライバシ保護のためのゲームモデルを提案する。
本稿では,ベイズ・ナッシュ生成プライバシ(BNGP)とベイズ生成プライバシ(BGP)のリスクについて紹介する。
本手法は要約統計の共有に応用され、MIAは集約データからでも個人を識別できる。
論文 参考訳(メタデータ) (2024-10-09T20:29:04Z) - A Game-Theoretic Approach to Privacy-Utility Tradeoff in Sharing Genomic Summary Statistics [24.330984323956173]
本稿では,ゲノムサマリー統計の共有において,最適なプライバシ・ユーティリティ・トレードオフのためのゲーム理論フレームワークを提案する。
実験により,提案手法は,技術状況よりも強力な攻撃と強力な防衛戦略をもたらすことが示された。
論文 参考訳(メタデータ) (2024-06-03T22:09:47Z) - Beyond Random Noise: Insights on Anonymization Strategies from a Latent
Bandit Study [44.94720642208655]
本稿では,レコメンデーションタスクの知識を共有する学習シナリオにおけるプライバシの問題について検討する。
我々は、プライバシーとレコメンデーションパフォーマンスのトレードオフを評価するために、潜伏したバンディット設定を使用します。
論文 参考訳(メタデータ) (2023-09-30T01:56:04Z) - Evaluating the Impact of Local Differential Privacy on Utility Loss via
Influence Functions [11.504012974208466]
我々は、特定のプライバシパラメータ値がモデルのテスト損失にどのように影響するかについて、インフルエンス関数が洞察を与える能力を示す。
提案手法により,データキュレーターは,プライバシ・ユーティリティのトレードオフに最も適したプライバシパラメータを選択できる。
論文 参考訳(メタデータ) (2023-09-15T18:08:24Z) - Causal Inference with Differentially Private (Clustered) Outcomes [16.166525280886578]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
我々は,任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Decision Making with Differential Privacy under a Fairness Lens [65.16089054531395]
アメリカ国勢調査局は、多くの重要な意思決定プロセスの入力として使用される個人のグループに関するデータセットと統計を公表している。
プライバシと機密性要件に従うために、これらの機関は、しばしば、プライバシを保存するバージョンのデータを公開する必要がある。
本稿では,差分的プライベートデータセットのリリースについて検討し,公平性の観点から重要な資源配分タスクに与える影響を考察する。
論文 参考訳(メタデータ) (2021-05-16T21:04:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。