論文の概要: Mechanisms for Hiding Sensitive Genotypes with Information-Theoretic
Privacy
- arxiv url: http://arxiv.org/abs/2007.05139v4
- Date: Thu, 14 Oct 2021 19:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:43:53.753196
- Title: Mechanisms for Hiding Sensitive Genotypes with Information-Theoretic
Privacy
- Title(参考訳): 情報理論プライバシを用いた機密遺伝子型隠蔽機構
- Authors: Fangwei Ye, Hyunghoon Cho, Salim El Rouayheb
- Abstract要約: 完全情報理論のプライバシを持つ消去ベースのプライバシ機構を導入する。
本機構は,シーケンス位置の処理順序に対する局所最適グリードアルゴリズムとして解釈できる。
私たちの仕事は、ゲノムデータ共有におけるプライバシーの厳格な制御に向けた一歩です。
- 参考スコア(独自算出の注目度): 23.855184569355487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the growing availability of personal genomics services, we study
an information-theoretic privacy problem that arises when sharing genomic data:
a user wants to share his or her genome sequence while keeping the genotypes at
certain positions hidden, which could otherwise reveal critical health-related
information. A straightforward solution of erasing (masking) the chosen
genotypes does not ensure privacy, because the correlation between nearby
positions can leak the masked genotypes. We introduce an erasure-based privacy
mechanism with perfect information-theoretic privacy, whereby the released
sequence is statistically independent of the sensitive genotypes. Our mechanism
can be interpreted as a locally-optimal greedy algorithm for a given processing
order of sequence positions, where utility is measured by the number of
positions released without erasure. We show that finding an optimal order is
NP-hard in general and provide an upper bound on the optimal utility. For
sequences from hidden Markov models, a standard modeling approach in genetics,
we propose an efficient algorithmic implementation of our mechanism with
complexity polynomial in sequence length. Moreover, we illustrate the
robustness of the mechanism by bounding the privacy leakage from erroneous
prior distributions. Our work is a step towards more rigorous control of
privacy in genomic data sharing.
- Abstract(参考訳): 個人ゲノミクスサービスの可用性の向上により、ゲノムデータの共有時に生じる情報理論プライバシの問題が研究される。ユーザーは、遺伝子型を特定の位置に隠蔽しながら、自分のゲノム配列を共有したいと願っている。
選択された遺伝子型を消去(マスク)する簡単な解決策は、近傍の位置間の相関関係がマスクされた遺伝子型を漏らす可能性があるため、プライバシを保証しない。
本稿では,情報理論的な完全プライバシを備えた消去に基づくプライバシ機構を導入する。
本機構は,シーケンス位置の所定の処理順序に対する局所最適グリーディアルゴリズムと解釈できる。
最適な順序を求めることは一般にnp-hardであり、最適効用の上界を提供する。
遺伝学における標準モデリング手法である隠れマルコフモデルからのシーケンスに対して, 複雑性多項式を列長とする機構の効率的なアルゴリズム実装を提案する。
さらに, 不正な事前分布からのプライバシー漏洩を境界にすることで, 機構の堅牢性を示す。
私たちの仕事は、ゲノムデータ共有におけるプライバシーの厳格な制御に向けた一歩です。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Privacy-hardened and hallucination-resistant synthetic data generation with logic-solvers [0.0]
我々は,論理解法(SATソルバ)であるGenomatorを導入し,元のデータのプライベートかつ現実的な表現を効率的に生成する。
本稿では、最も複雑かつプライベートな情報であるゲノムデータについて示す。
論文 参考訳(メタデータ) (2024-10-22T05:20:21Z) - Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - The Symmetric alpha-Stable Privacy Mechanism [0.0]
本稿では,Symmetric alpha-Stable (SaS) 機構の新しい解析法を提案する。
この機構は、畳み込みの下で閉じたまま、純粋に微分プライベートであることを示す。
論文 参考訳(メタデータ) (2023-11-29T16:34:39Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - SHIELD: Secure Haplotype Imputation Employing Local Differential Privacy [0.0]
局所差分プライバシ(SHIELD)を利用したセキュアハプロタイプインパテーションについて紹介する。
ShiELDは、配列ベースのジェノタイピングプラットフォームで直接測定されていないマーカーでターゲットサンプルの遺伝子型を正確に推定するプログラムである。
論文 参考訳(メタデータ) (2023-09-13T20:51:11Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。