論文の概要: Privacy-Preserving Gaussian Process Regression -- A Modular Approach to
the Application of Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2001.10893v1
- Date: Tue, 28 Jan 2020 11:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:34:05.092135
- Title: Privacy-Preserving Gaussian Process Regression -- A Modular Approach to
the Application of Homomorphic Encryption
- Title(参考訳): プライバシ保存ガウス過程回帰--準同型暗号の適用へのモジュラーアプローチ
- Authors: Peter Fenner, Edward O. Pyzer-Knapp
- Abstract要約: ホモモルフィック暗号化(FHE)は、データを暗号化しながら計算することができる。
ガウス過程回帰のような一般的な機械学習アルゴリズムは、FHEにはあまり適していない。
保護を必要とするワークフローのセンシティブなステップのみにFHEを適用するモジュラーアプローチは、あるパーティがデータに対して予測できることを示している。
- 参考スコア(独自算出の注目度): 4.1499725848998965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much of machine learning relies on the use of large amounts of data to train
models to make predictions. When this data comes from multiple sources, for
example when evaluation of data against a machine learning model is offered as
a service, there can be privacy issues and legal concerns over the sharing of
data. Fully homomorphic encryption (FHE) allows data to be computed on whilst
encrypted, which can provide a solution to the problem of data privacy.
However, FHE is both slow and restrictive, so existing algorithms must be
manipulated to make them work efficiently under the FHE paradigm. Some commonly
used machine learning algorithms, such as Gaussian process regression, are
poorly suited to FHE and cannot be manipulated to work both efficiently and
accurately. In this paper, we show that a modular approach, which applies FHE
to only the sensitive steps of a workflow that need protection, allows one
party to make predictions on their data using a Gaussian process regression
model built from another party's data, without either party gaining access to
the other's data, in a way which is both accurate and efficient. This
construction is, to our knowledge, the first example of an effectively
encrypted Gaussian process.
- Abstract(参考訳): 機械学習の多くは、予測を行うモデルをトレーニングするために大量のデータを使用することに依存している。
このデータが複数のソースからやってくる場合、例えば、マシンラーニングモデルに対するデータ評価がサービスとして提供される場合、データの共有に関するプライバシーの問題と法的懸念がある可能性がある。
完全同型暗号化(FHE)では、暗号化中にデータを計算でき、データのプライバシの問題に対する解決策を提供することができる。
しかし、FHEは遅くて制限的であるため、既存のアルゴリズムをFHEパラダイムの下で効率的に動作するように操作する必要がある。
ガウス過程回帰のような一般的な機械学習アルゴリズムは、FHEに不適であり、効率的かつ正確に動作するように操作することはできない。
本稿では、FHEを保護を必要とするワークフローの繊細なステップのみに適用するモジュラーアプローチにより、一方が他方のデータから構築されたガウス的プロセス回帰モデルを用いて、他方のデータへのアクセスを得ることなく、他方のデータを正確かつ効率的に予測することができることを示す。
この構成は、我々の知る限り、効果的に暗号化されたガウス過程の最初の例である。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Secure numerical simulations using fully homomorphic encryption [2.923600136516929]
ホモモルフィック暗号化(英語版) (FHE) は暗号化されたデータに対するセキュアな計算を可能にする。
偏微分方程式のプライバシ保存数値シミュレーションにおけるFHEの適用可能性について検討する。
論文 参考訳(メタデータ) (2024-10-29T07:47:10Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Gaussian Process Probes (GPP) for Uncertainty-Aware Probing [61.91898698128994]
モデルによって表現される概念に関する不確実性を探索し、測定するための統一的でシンプルなフレームワークを導入する。
実験の結果,(1)ごく少数の例でも,モデルの概念表現を探索し,(2)認識の不確実性(プローブがどの程度確実か)と解離不確実性(モデルがファジィか)を正確に測定し,(3)これらの不確実性尺度と古典的手法を用いて分布データの検出を行うことができた。
論文 参考訳(メタデータ) (2023-05-29T17:00:16Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Secure PAC Bayesian Regression via Real Shamir Secret Sharing [2.578242050187029]
本稿では,最近記述された「実数秘密共有」技術を利用した線形モデル学習プロトコルを提案する。
我々は、複数のパーティが異なるデータインスタンスを保持し、データのプライバシを放棄する意思のない状況を考える。
本稿では,セキュアな逆法とセキュアなガウス除去法という2つの方法を提案する。
論文 参考訳(メタデータ) (2021-09-23T08:15:22Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - Cryptotree: fast and accurate predictions on encrypted structured data [0.0]
ホモモルフィック暗号化(HE)は、入力と出力の両方が暗号化される暗号化データ上での計算を可能にする能力で認められている。
線形回帰と比較して非常に強力な学習手法であるランダムフォレスト(RF)の利用を可能にするフレームワークであるCryptotreeを提案する。
論文 参考訳(メタデータ) (2020-06-15T11:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。