論文の概要: A Game-Theoretic Approach to Privacy-Utility Tradeoff in Sharing Genomic Summary Statistics
- arxiv url: http://arxiv.org/abs/2406.01811v1
- Date: Mon, 3 Jun 2024 22:09:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 20:42:35.610081
- Title: A Game-Theoretic Approach to Privacy-Utility Tradeoff in Sharing Genomic Summary Statistics
- Title(参考訳): ゲノミクス概要統計の共有におけるプライバシとユーティリティのトレードオフに対するゲーム理論的アプローチ
- Authors: Tao Zhang, Rajagopal Venkatesaramani, Rajat K. De, Bradley A. Malin, Yevgeniy Vorobeychik,
- Abstract要約: 本稿では,ゲノムサマリー統計の共有において,最適なプライバシ・ユーティリティ・トレードオフのためのゲーム理論フレームワークを提案する。
実験により,提案手法は,技術状況よりも強力な攻撃と強力な防衛戦略をもたらすことが示された。
- 参考スコア(独自算出の注目度): 24.330984323956173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of online genomic data-sharing services has sought to enhance the accessibility of large genomic datasets by allowing queries about genetic variants, such as summary statistics, aiding care providers in distinguishing between spurious genomic variations and those with clinical significance. However, numerous studies have demonstrated that even sharing summary genomic information exposes individual members of such datasets to a significant privacy risk due to membership inference attacks. While several approaches have emerged that reduce privacy risks by adding noise or reducing the amount of information shared, these typically assume non-adaptive attacks that use likelihood ratio test (LRT) statistics. We propose a Bayesian game-theoretic framework for optimal privacy-utility tradeoff in the sharing of genomic summary statistics. Our first contribution is to prove that a very general Bayesian attacker model that anchors our game-theoretic approach is more powerful than the conventional LRT-based threat models in that it induces worse privacy loss for the defender who is modeled as a von Neumann-Morgenstern (vNM) decision-maker. We show this to be true even when the attacker uses a non-informative subjective prior. Next, we present an analytically tractable approach to compare the Bayesian attacks with arbitrary subjective priors and the Neyman-Pearson optimal LRT attacks under the Gaussian mechanism common in differential privacy frameworks. Finally, we propose an approach for approximating Bayes-Nash equilibria of the game using deep neural network generators to implicitly represent player mixed strategies. Our experiments demonstrate that the proposed game-theoretic framework yields both stronger attacks and stronger defense strategies than the state of the art.
- Abstract(参考訳): オンラインゲノミクスデータ共有サービスの出現は、サマリ統計などの遺伝的変異に関するクエリーを許可し、スプリケートなゲノム変異と臨床的意義を区別するケアプロバイダを支援することによって、大きなゲノムデータセットのアクセシビリティを高めることを目指している。
しかし、多くの研究は、要約ゲノム情報を共有することでさえ、そのようなデータセットの個々のメンバーを、メンバーシップ推論攻撃による重大なプライバシーリスクに晒すことを実証している。
ノイズを追加したり、共有する情報の量を減らしたりすることでプライバシーリスクを減らすいくつかのアプローチが出現しているが、これらは通常、比例テスト(LRT)統計を用いた非適応攻撃を前提としている。
本稿では,ゲノムサマリー統計の共有において,最適なプライバシ・ユーティリティ・トレードオフのためのベイズゲーム理論フレームワークを提案する。
我々の最初の貢献は、我々のゲーム理論的アプローチを定着させる非常に一般的なベイズ攻撃モデルが従来のLRTベースの脅威モデルよりも強力であることを証明することである。
攻撃者が非インフォームティブな主観的前者を用いた場合であっても、これは事実であることを示す。
次に,ベイズ攻撃と任意の主観的先行点と,微分プライバシーフレームワークに共通するガウス機構の下でのナイマン・ピアソン最適LRT攻撃との比較を行う。
最後に、ディープニューラルネットワーク生成器を用いてプレイヤーのベイズ・ナッシュ均衡を近似し、プレイヤーの混合戦略を暗黙的に表現する手法を提案する。
実験により,提案したゲーム理論の枠組みは,最先端技術よりも強力な攻撃と強力な防衛戦略をもたらすことが示された。
関連論文リスト
- Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - ATTAXONOMY: Unpacking Differential Privacy Guarantees Against Practical Adversaries [11.550822252074733]
我々は攻撃の詳細な分類を提供し、攻撃のさまざまな側面を示し、多くの現実世界の設定が検討されていることを強調している。
イスラエル厚生労働省が最近発表した、差分プライバシーを用いた出生データセットの実際のケーススタディを分析して、分類学を運用しています。
論文 参考訳(メタデータ) (2024-05-02T20:23:23Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Privacy Re-identification Attacks on Tabular GANs [0.0]
生成モデルは過度に適合し、トレーニングデータから機密情報を漏洩させる可能性がある。
合成データセット作成にGAN(Generative Adversarial Network)を用いることによって生じる可能性のあるプライバシーリスクについて検討する。
論文 参考訳(メタデータ) (2024-03-31T14:14:00Z) - Model Stealing Attack against Graph Classification with Authenticity,
Uncertainty and Diversity [85.1927483219819]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Enabling Trade-offs in Privacy and Utility in Genomic Data Beacons and
Summary Statistics [26.99521354120141]
要約データやBeaconの応答とプライバシを明示的にトレードオフするための最適化ベースのアプローチを導入します。
第一に、攻撃者はメンバーシップ推論のクレームを行うために確率比テストを適用する。
第2に、攻撃者は、個人間のスコアの分離に対するデータリリースの影響を考慮に入れたしきい値を使用する。
論文 参考訳(メタデータ) (2023-01-11T19:16:13Z) - Improved Generalization Guarantees in Restricted Data Models [16.193776814471768]
差分プライバシーは、適応的、または探索的、データ分析による妥当性の脅威から保護されることが知られている。
この仮定では、データの異なる部分におけるプライバシー予算の「再利用」が可能であり、オーバーフィッティングのリスクを増大させることなく、精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2022-07-20T16:04:12Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Systematic Evaluation of Privacy Risks of Machine Learning Models [41.017707772150835]
メンバーシップ推論攻撃に対する事前の取り組みは、プライバシーリスクを著しく過小評価する可能性があることを示す。
まず、既存の非ニューラルネットワークベースの推論攻撃を改善することで、メンバーシップ推論のプライバシリスクをベンチマークする。
次に、プライバシリスクスコアと呼ばれる新しい指標を定式化し、導出することで、詳細なプライバシ分析のための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-03-24T00:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。