論文の概要: Mechanisms for Hiding Sensitive Genotypes with Information-Theoretic
Privacy
- arxiv url: http://arxiv.org/abs/2007.05139v4
- Date: Thu, 14 Oct 2021 19:36:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 22:43:53.753196
- Title: Mechanisms for Hiding Sensitive Genotypes with Information-Theoretic
Privacy
- Title(参考訳): 情報理論プライバシを用いた機密遺伝子型隠蔽機構
- Authors: Fangwei Ye, Hyunghoon Cho, Salim El Rouayheb
- Abstract要約: 完全情報理論のプライバシを持つ消去ベースのプライバシ機構を導入する。
本機構は,シーケンス位置の処理順序に対する局所最適グリードアルゴリズムとして解釈できる。
私たちの仕事は、ゲノムデータ共有におけるプライバシーの厳格な制御に向けた一歩です。
- 参考スコア(独自算出の注目度): 23.855184569355487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by the growing availability of personal genomics services, we study
an information-theoretic privacy problem that arises when sharing genomic data:
a user wants to share his or her genome sequence while keeping the genotypes at
certain positions hidden, which could otherwise reveal critical health-related
information. A straightforward solution of erasing (masking) the chosen
genotypes does not ensure privacy, because the correlation between nearby
positions can leak the masked genotypes. We introduce an erasure-based privacy
mechanism with perfect information-theoretic privacy, whereby the released
sequence is statistically independent of the sensitive genotypes. Our mechanism
can be interpreted as a locally-optimal greedy algorithm for a given processing
order of sequence positions, where utility is measured by the number of
positions released without erasure. We show that finding an optimal order is
NP-hard in general and provide an upper bound on the optimal utility. For
sequences from hidden Markov models, a standard modeling approach in genetics,
we propose an efficient algorithmic implementation of our mechanism with
complexity polynomial in sequence length. Moreover, we illustrate the
robustness of the mechanism by bounding the privacy leakage from erroneous
prior distributions. Our work is a step towards more rigorous control of
privacy in genomic data sharing.
- Abstract(参考訳): 個人ゲノミクスサービスの可用性の向上により、ゲノムデータの共有時に生じる情報理論プライバシの問題が研究される。ユーザーは、遺伝子型を特定の位置に隠蔽しながら、自分のゲノム配列を共有したいと願っている。
選択された遺伝子型を消去(マスク)する簡単な解決策は、近傍の位置間の相関関係がマスクされた遺伝子型を漏らす可能性があるため、プライバシを保証しない。
本稿では,情報理論的な完全プライバシを備えた消去に基づくプライバシ機構を導入する。
本機構は,シーケンス位置の所定の処理順序に対する局所最適グリーディアルゴリズムと解釈できる。
最適な順序を求めることは一般にnp-hardであり、最適効用の上界を提供する。
遺伝学における標準モデリング手法である隠れマルコフモデルからのシーケンスに対して, 複雑性多項式を列長とする機構の効率的なアルゴリズム実装を提案する。
さらに, 不正な事前分布からのプライバシー漏洩を境界にすることで, 機構の堅牢性を示す。
私たちの仕事は、ゲノムデータ共有におけるプライバシーの厳格な制御に向けた一歩です。
関連論文リスト
- Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Individual Privacy Accounting for Differentially Private Stochastic
Gradient Descent [73.2635854205537]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Mycorrhiza: Genotype Assignment usingPhylogenetic Networks [2.286041284499166]
遺伝子型代入問題に対する機械学習手法であるMycorrhizaを紹介する。
提案アルゴリズムは系統ネットワークを用いて,標本間の進化的関係を符号化する特徴を設計する。
Mycorrhizaは、大きな平均固定指数(FST)を持つデータセットやハーディ・ワインバーグ平衡からの偏差で特に顕著な利得を得る。
論文 参考訳(メタデータ) (2020-10-14T02:36:27Z) - Bounding, Concentrating, and Truncating: Unifying Privacy Loss
Composition for Data Analytics [2.614355818010333]
アナリストが純粋なDP、境界範囲(指数的なメカニズムなど)、集中的なDPメカニズムを任意の順序で選択できる場合、強いプライバシー損失バウンダリを提供する。
また、アナリストが純粋なDPと境界範囲のメカニズムをバッチで選択できる場合に適用される最適なプライバシー損失境界を提供する。
論文 参考訳(メタデータ) (2020-04-15T17:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。