論文の概要: Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics
- arxiv url: http://arxiv.org/abs/2302.01763v1
- Date: Wed, 11 Jan 2023 19:16:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-12 13:13:54.902834
- Title: Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics
- Title(参考訳): ゲノムデータビーコンにおけるプライバシとユーティリティのトレードオフと概要統計
- Authors: Rajagopal Venkatesaramani, Zhiyu Wan, Bradley A. Malin, Yevgeniy
Vorobeychik
- Abstract要約: 要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
- 参考スコア(独自算出の注目度): 26.99521354120141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The collection and sharing of genomic data are becoming increasingly
commonplace in research, clinical, and direct-to-consumer settings. The
computational protocols typically adopted to protect individual privacy include
sharing summary statistics, such as allele frequencies, or limiting query
responses to the presence/absence of alleles of interest using web-services
called Beacons. However, even such limited releases are susceptible to
likelihood-ratio-based membership-inference attacks. Several approaches have
been proposed to preserve privacy, which either suppress a subset of genomic
variants or modify query responses for specific variants (e.g., adding noise,
as in differential privacy). However, many of these approaches result in a
significant utility loss, either suppressing many variants or adding a
substantial amount of noise. In this paper, we introduce optimization-based
approaches to explicitly trade off the utility of summary data or Beacon
responses and privacy with respect to membership-inference attacks based on
likelihood-ratios, combining variant suppression and modification. We consider
two attack models. In the first, an attacker applies a likelihood-ratio test to
make membership-inference claims. In the second model, an attacker uses a
threshold that accounts for the effect of the data release on the separation in
scores between individuals in the dataset and those who are not. We further
introduce highly scalable approaches for approximately solving the
privacy-utility tradeoff problem when information is either in the form of
summary statistics or presence/absence queries. Finally, we show that the
proposed approaches outperform the state of the art in both utility and privacy
through an extensive evaluation with public datasets.
- Abstract(参考訳): ゲノムデータの収集と共有は、研究、臨床、消費者への直接的設定においてますます一般的になっている。
個々のプライバシを保護するために一般的に使用される計算プロトコルには、アレル頻度などの要約統計の共有や、ビーコンと呼ばれるwebサービスを使用して興味のあるアレルの存在/欠如に対するクエリ応答の制限が含まれる。
しかし、そのような限定リリースでさえ、確率比に基づくメンバーシップ推論攻撃の影響を受けやすい。
プライバシを保存するためにいくつかのアプローチが提案されており、ゲノム変異のサブセットを抑えるか、特定の変種に対してクエリ応答を変更する(例えば、差分プライバシーのようにノイズを加える)。
しかし、これらのアプローチの多くは、多くの変種を抑えるか、かなりのノイズを加えるか、大きなユーティリティ損失をもたらす。
本稿では,サマリデータやビーコン応答やプライバシの利便性を,不確実性に基づくメンバシップ回避攻撃に対して明確に切り離すための最適化に基づく手法を提案する。
我々は2つの攻撃モデルを考える。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2のモデルでは、攻撃者はデータセット内の個人とそうでない人のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
さらに,情報に要約統計や存在/存在問合せの形式がある場合,プライバシーとユーティリティのトレードオフ問題を解決するために,高度にスケーラブルなアプローチを導入する。
最後に,提案手法は,公共データセットによる広範囲な評価を通じて,実用性とプライバシの両面で技術状況よりも優れていることを示す。
関連論文リスト
- TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - On the Inadequacy of Similarity-based Privacy Metrics: Reconstruction
Attacks against "Truly Anonymous Synthetic Data'' [15.0393231456773]
私たちはこの分野の有力企業が提供するプライバシー指標をレビューし、実証的な評価を通じて、プライバシーを推論する上でいくつかの重大な欠陥を指摘しました。
我々は,低密度の列車記録(または降車率)の少なくとも78%をブラックボックスで回復し,単一の生成モデルとプライバシメトリクスにのみアクセスする再構成攻撃ReconSynを提案する。
論文 参考訳(メタデータ) (2023-12-08T15:42:28Z) - Beyond Random Noise: Insights on Anonymization Strategies from a Latent
Bandit Study [44.94720642208655]
本稿では,レコメンデーションタスクの知識を共有する学習シナリオにおけるプライバシの問題について検討する。
我々は、プライバシーとレコメンデーションパフォーマンスのトレードオフを評価するために、潜伏したバンディット設定を使用します。
論文 参考訳(メタデータ) (2023-09-30T01:56:04Z) - Evaluating the Impact of Local Differential Privacy on Utility Loss via
Influence Functions [11.504012974208466]
我々は、特定のプライバシパラメータ値がモデルのテスト損失にどのように影響するかについて、インフルエンス関数が洞察を与える能力を示す。
提案手法により,データキュレーターは,プライバシ・ユーティリティのトレードオフに最も適したプライバシパラメータを選択できる。
論文 参考訳(メタデータ) (2023-09-15T18:08:24Z) - Causal Inference with Differentially Private (Clustered) Outcomes [10.08890668924377]
ランダム化実験から因果効果を推定することは、参加者が反応を明らかにすることに同意すれば実現可能である。
データの任意のクラスタ構造を利用する新たな差分プライバシメカニズムであるCluster-DPを提案する。
クラスタの品質を直感的に測定することで,プライバシ保証を維持しながら分散損失を改善することができることを示す。
論文 参考訳(メタデータ) (2023-08-02T05:51:57Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Data-driven Regularized Inference Privacy [33.71757542373714]
データを衛生化するためのデータ駆動推論プライバシ保護フレームワークを提案する。
我々は変分法に基づく推論プライバシ・フレームワークを開発する。
プライバシー基準を推定するための実証的手法を提案する。
論文 参考訳(メタデータ) (2020-10-10T08:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。