論文の概要: A Privacy-Preserving Federated Learning Approach for Kernel methods
- arxiv url: http://arxiv.org/abs/2306.02677v1
- Date: Mon, 5 Jun 2023 08:11:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 16:20:49.375253
- Title: A Privacy-Preserving Federated Learning Approach for Kernel methods
- Title(参考訳): カーネル手法のためのプライバシ保護フェデレーション学習手法
- Authors: Anika Hannemann, Ali Burak \"Unal, Arjhun Swaminathan, Erik Buchmann,
Mete Akg\"un
- Abstract要約: 水平分散データ上でのKErnel手法のフェデレート学習手法であるFLAKEを提案する。
FLAKEでは、データソースがデータを隠蔽して、集中型インスタンスがプライバシを損なうことなくGram行列を計算できるようにする。
FLAKEは、敵が半正直な脅威モデルの下で入力データや入力特徴数を学ぶのを防ぐ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is challenging to implement Kernel methods, if the data sources are
distributed and cannot be joined at a trusted third party for privacy reasons.
It is even more challenging, if the use case rules out privacy-preserving
approaches that introduce noise. An example for such a use case is machine
learning on clinical data. To realize exact privacy preserving computation of
kernel methods, we propose FLAKE, a Federated Learning Approach for KErnel
methods on horizontally distributed data. With FLAKE, the data sources mask
their data so that a centralized instance can compute a Gram matrix without
compromising privacy. The Gram matrix allows to calculate many kernel matrices,
which can be used to train kernel-based machine learning algorithms such as
Support Vector Machines. We prove that FLAKE prevents an adversary from
learning the input data or the number of input features under a semi-honest
threat model. Experiments on clinical and synthetic data confirm that FLAKE is
outperforming the accuracy and efficiency of comparable methods. The time
needed to mask the data and to compute the Gram matrix is several orders of
magnitude less than the time a Support Vector Machine needs to be trained.
Thus, FLAKE can be applied to many use cases.
- Abstract(参考訳): データソースが分散しており、プライバシ上の理由から信頼できるサードパーティに結合できない場合、Kernelメソッドを実装するのは難しい。
さらに難しいのは、ケースがノイズをもたらすプライバシー保護アプローチを規定している場合です。
そのようなユースケースの例として、臨床データの機械学習がある。
カーネルメソッドの正確なプライバシー保存計算を実現するために,水平分散データに対するカーネルメソッドのフェデレーション学習手法であるflakeを提案する。
flakeでは、データソースがデータを隠して、集中型インスタンスがプライバシを損なうことなくグラムマトリックスを計算できるようにします。
Gram行列は多数のカーネル行列を計算し、Support Vector Machinesのようなカーネルベースの機械学習アルゴリズムのトレーニングに使用できる。
FLAKEは、敵が半正直な脅威モデルの下で入力データや入力特徴数を学ぶのを防ぐ。
臨床および合成データの実験では、FLAKEが同等の手法の精度と効率を上回っていることを確認した。
データを隠蔽し、グラム行列を計算するのに必要な時間は、サポートベクトルマシンをトレーニングする必要がある時間よりも桁違いに少ない。
したがって、FLAKEは多くのユースケースに適用できる。
関連論文リスト
- Self-Consistency Training for Density-Functional-Theory Hamiltonian Prediction [74.84850523400873]
ハミルトン予測は自己整合性理論を持ち,自己整合性トレーニングを提案する。
これにより、大量のラベルのないデータでモデルをトレーニングできるため、データの不足に対処できる。
一連のクエリに対してDFT計算を補正するため、教師付きトレーニングのためのラベルを生成するのにDFTを実行するより効率的である。
論文 参考訳(メタデータ) (2024-03-14T16:52:57Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Fast Federated Learning in the Presence of Arbitrary Device
Unavailability [26.368873771739715]
Federated Learning (FL)は異種デバイスをコーディネートして、ユーザのプライバシを維持しながら共有モデルを協調的にトレーニングする。
ひとつの課題は、デバイスが中央サーバ以外のトレーニングプロセスから外れることだ。
我々はこの問題を解決するためにIm Federated A patientaging (MIFA)を提案する。
論文 参考訳(メタデータ) (2021-06-08T07:46:31Z) - FedPower: Privacy-Preserving Distributed Eigenspace Estimation [38.17106202734679]
我々は,フェデレートラーニング(FL)フレームワーク内で,textsfFedPowerと呼ばれるアルゴリズムのクラスを提案する。
textsfFedPowerは、複数のローカルパワーイテレーションとグローバルアグリゲーションステップを交互に行うことで、よく知られたパワーメソッドを活用する。
ガウス雑音, 並列化, ローカルマシンのランダムサンプリングの影響に応じて, 異なる解釈可能な項からなるテキストfFedPowerの収束境界を提供する。
論文 参考訳(メタデータ) (2021-03-01T02:33:20Z) - ESCAPED: Efficient Secure and Private Dot Product Framework for
Kernel-based Machine Learning Algorithms with Applications in Healthcare [0.0]
ESCAPEDは,複数ソースからのベクトルのドット積の計算を可能にする。
HIV感染者に対する薬剤耐性予測の枠組みと、精密医療におけるマルチオミクスの次元減少とクラスタリングの問題について検討した。
論文 参考訳(メタデータ) (2020-12-04T15:57:20Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Spectral Learning on Matrices and Tensors [74.88243719463053]
テンソル分解は行列法で欠落する潜伏効果を拾うことができることを示す。
また,効率的なテンソル分解法を設計するための計算手法についても概説する。
論文 参考訳(メタデータ) (2020-04-16T22:53:00Z) - Privacy-Preserving Gaussian Process Regression -- A Modular Approach to
the Application of Homomorphic Encryption [4.1499725848998965]
ホモモルフィック暗号化(FHE)は、データを暗号化しながら計算することができる。
ガウス過程回帰のような一般的な機械学習アルゴリズムは、FHEにはあまり適していない。
保護を必要とするワークフローのセンシティブなステップのみにFHEを適用するモジュラーアプローチは、あるパーティがデータに対して予測できることを示している。
論文 参考訳(メタデータ) (2020-01-28T11:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。