論文の概要: Secure PAC Bayesian Regression via Real Shamir Secret Sharing
- arxiv url: http://arxiv.org/abs/2109.11200v1
- Date: Thu, 23 Sep 2021 08:15:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 22:13:30.323956
- Title: Secure PAC Bayesian Regression via Real Shamir Secret Sharing
- Title(参考訳): 本物のシャミール秘密共有によるpacベイズ回帰の安全性
- Authors: Jaron Skovsted Gundersen, Bulut Kuskonmaz, Rafael Wisniewski
- Abstract要約: 本稿では,最近記述された「実数秘密共有」技術に基づく線形モデルを得るためのプロトコルを提案する。
我々は、複数のパーティが異なるデータインスタンスを保持し、データのプライバシを放棄する意思のない状況を考える。
逆法とガウス除去法という2つの方法を提案する。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Common approach of machine learning is to generate a model by using huge
amount of training data to predict the test data instances as accurate as
possible. Nonetheless, concerns about data privacy are increasingly raised, but
not always addressed. We present a secure protocol for obtaining a linear model
relying on recently described technique called real number secret sharing. We
take as our starting point the PAC Bayesian bounds and deduce a closed form for
the model parameters which depends on the data and the prior from the PAC
Bayesian bounds. To obtain the model parameters one need to solve a linear
system. However, we consider the situation where several parties hold different
data instances and they are not willing to give up the privacy of the data.
Hence, we suggest to use real number secret sharing and multiparty computation
to share the data and solve the linear regression in a secure way without
violating the privacy of data. We suggest two methods; an inverse method and a
Gaussian elimination method, and compare these methods at the end.
- Abstract(参考訳): 機械学習の一般的なアプローチは、大量のトレーニングデータを使用して、テストデータインスタンスを可能な限り正確に予測することでモデルを生成することである。
それでも、データのプライバシーに関する懸念はますます高まっている。
本稿では,最近紹介した実数シークレット共有技術に基づく線形モデルを得るためのセキュアなプロトコルを提案する。
我々はPACベイズ境界を出発点として、PACベイズ境界からデータと先行に依存するモデルパラメータの閉形式を導出する。
モデルパラメータを得るためには、線形システムを解く必要がある。
しかし、複数の当事者が異なるデータインスタンスを持っていて、データのプライバシを諦めたくないという状況を考える。
したがって、データのプライバシーを侵害することなく、実数秘密共有とマルチパーティ計算を用いてデータを共有し、線形回帰を安全に解決することを提案する。
逆法とガウス除去法という2つの方法を提案し,最後にこれらの方法を比較する。
関連論文リスト
- Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Practical Privacy-Preserving Gaussian Process Regression via Secret
Sharing [23.80837224347696]
本稿では秘密共有(SS)に基づくプライバシー保護型GPR手法を提案する。
コンフュージョン補正(confusion-correction)というアイデアを通じて,新たなSSベースの指数演算を導出し,Cholesky分解に基づくSSベースの行列逆変換アルゴリズムを構築する。
実験結果から,データプライバシ保護の前提として,提案手法が妥当な精度と効率を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-06-26T08:17:51Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Secure Data Sharing With Flow Model [13.773737296144366]
古典的なマルチパーティ計算では、複数のパーティが独自の入力データを公開せずに関数を共同で計算する。
機械学習のトレーニング目的のために入力データを共有できるこの問題の変種を考察するが、そのデータは他の当事者によって復元できないようにもなっている。
本稿では,フローモデルを用いた回転法を提案し,その安全性を理論的に正当化する。
論文 参考訳(メタデータ) (2020-09-24T15:40:14Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z) - Federating Recommendations Using Differentially Private Prototypes [16.29544153550663]
生データを収集せずにグローバルおよびローカルなプライベートモデルを学習するための新しいフェデレーションアプローチを提案する。
通信を2ラウンドだけ必要とすることで、通信コストを削減し、過剰なプライバシー損失を回避することができます。
本稿では,グローバルモデルの局所的適応により,集中行列分解に基づくレコメンデータシステムモデルよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-03-01T22:21:31Z) - Privacy-Preserving Gaussian Process Regression -- A Modular Approach to
the Application of Homomorphic Encryption [4.1499725848998965]
ホモモルフィック暗号化(FHE)は、データを暗号化しながら計算することができる。
ガウス過程回帰のような一般的な機械学習アルゴリズムは、FHEにはあまり適していない。
保護を必要とするワークフローのセンシティブなステップのみにFHEを適用するモジュラーアプローチは、あるパーティがデータに対して予測できることを示している。
論文 参考訳(メタデータ) (2020-01-28T11:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。