論文の概要: ESCAPED: Efficient Secure and Private Dot Product Framework for
Kernel-based Machine Learning Algorithms with Applications in Healthcare
- arxiv url: http://arxiv.org/abs/2012.02688v1
- Date: Fri, 4 Dec 2020 15:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 02:45:15.984441
- Title: ESCAPED: Efficient Secure and Private Dot Product Framework for
Kernel-based Machine Learning Algorithms with Applications in Healthcare
- Title(参考訳): escape: カーネルベースの機械学習アルゴリズムのための効率的なセキュアでプライベートなdot製品フレームワーク
- Authors: Ali Burak \"Unal, Mete Akg\"un, Nico Pfeifer
- Abstract要約: ESCAPEDは,複数ソースからのベクトルのドット積の計算を可能にする。
HIV感染者に対する薬剤耐性予測の枠組みと、精密医療におけるマルチオミクスの次元減少とクラスタリングの問題について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To train sophisticated machine learning models one usually needs many
training samples. Especially in healthcare settings these samples can be very
expensive, meaning that one institution alone usually does not have enough on
its own. Merging privacy-sensitive data from different sources is usually
restricted by data security and data protection measures. This can lead to
approaches that reduce data quality by putting noise onto the variables (e.g.,
in $\epsilon$-differential privacy) or omitting certain values (e.g., for
$k$-anonymity). Other measures based on cryptographic methods can lead to very
time-consuming computations, which is especially problematic for larger
multi-omics data. We address this problem by introducing ESCAPED, which stands
for Efficient SeCure And PrivatE Dot product framework, enabling the
computation of the dot product of vectors from multiple sources on a
third-party, which later trains kernel-based machine learning algorithms, while
neither sacrificing privacy nor adding noise. We evaluated our framework on
drug resistance prediction for HIV-infected people and multi-omics
dimensionality reduction and clustering problems in precision medicine. In
terms of execution time, our framework significantly outperforms the
best-fitting existing approaches without sacrificing the performance of the
algorithm. Even though we only show the benefit for kernel-based algorithms,
our framework can open up new research opportunities for further machine
learning models that require the dot product of vectors from multiple sources.
- Abstract(参考訳): 高度な機械学習モデルをトレーニングするには、通常多くのトレーニングサンプルが必要です。
特に医療分野では、これらのサンプルは非常に高価であり、1つの機関だけではそれ自体で十分ではない。
異なるソースからのプライバシーに敏感なデータのマージは通常、データセキュリティとデータ保護によって制限される。
これは、変数にノイズ(例えば$\epsilon$-differential privacy)を配置したり、特定の値(例えば$k$-匿名性)を省略したりすることで、データ品質を低下させるアプローチにつながる可能性がある。
暗号法に基づくその他の測定は、特に大規模なマルチオミクスデータには特に問題となる、非常に時間を要する計算につながる可能性がある。
ESCAPED(Efficient SeCure and PrivatE Dotのプロダクトフレームワーク)を導入し、サードパーティ上の複数のソースからのベクトルのドット積の計算を可能にし、後にカーネルベースの機械学習アルゴリズムを訓練し、プライバシやノイズの追加を犠牲にすることなく、この問題に対処する。
HIV感染者に対する薬剤耐性予測の枠組みと、精密医療におけるマルチオミクスの次元減少とクラスタリングの問題について検討した。
実行時間に関して、我々のフレームワークはアルゴリズムの性能を犠牲にすることなく、最も適した既存のアプローチを著しく上回ります。
カーネルベースのアルゴリズムの利点しか示さないが、我々のフレームワークは、複数のソースからのベクトルのドット積を必要とする機械学習モデルに新たな研究機会を開くことができる。
関連論文リスト
- A Novel Neural Network-Based Federated Learning System for Imbalanced
and Non-IID Data [2.9642661320713555]
ほとんどの機械学習アルゴリズムは、様々なソースから収集される大量のデータに大きく依存している。
この問題に対処するため、研究者らはフェデレーション学習を導入し、クライアントデータのプライバシーを確保することによって予測モデルを学習した。
本研究では,ニューラルネットワークに基づくフェデレーション学習システムを提案する。
論文 参考訳(メタデータ) (2023-11-16T17:14:07Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Fast Optimal Locally Private Mean Estimation via Random Projections [58.603579803010796]
ユークリッド球における高次元ベクトルの局所的プライベート平均推定の問題について検討する。
プライベート平均推定のための新しいアルゴリズムフレームワークであるProjUnitを提案する。
各ランダム化器はその入力をランダムな低次元部分空間に投影し、結果を正規化し、最適なアルゴリズムを実行する。
論文 参考訳(メタデータ) (2023-06-07T14:07:35Z) - A Privacy-Preserving Federated Learning Approach for Kernel methods [0.0]
水平分散データ上でのKErnel手法のフェデレート学習手法であるFLAKEを提案する。
FLAKEでは、データソースがデータを隠蔽して、集中型インスタンスがプライバシを損なうことなくGram行列を計算できるようにする。
FLAKEは、敵が半正直な脅威モデルの下で入力データや入力特徴数を学ぶのを防ぐ。
論文 参考訳(メタデータ) (2023-06-05T08:11:44Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Privacy Induces Robustness: Information-Computation Gaps and Sparse Mean
Estimation [8.9598796481325]
本稿では, アルゴリズムと計算複雑性の両面において, 異なる統計問題に対する観測結果について検討する。
プライベートスパース平均推定のための情報計算ギャップを確立する。
また、プライバシーによって引き起こされる情報計算のギャップを、いくつかの統計や学習問題に対して証明する。
論文 参考訳(メタデータ) (2022-11-01T20:03:41Z) - Robust Collaborative Learning with Linear Gradient Overhead [7.250306457887471]
分散SGD(あるいはD-SGD)のような協調学習アルゴリズムは、故障する機械の傾向が強い。
我々は、標準仮定の下で確実に堅牢な新しいアルゴリズムであるMoNNAを提案する。
運動量とモデルドリフトの間の張力を制御する方法を提案する。
論文 参考訳(メタデータ) (2022-09-22T11:26:25Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - The Integrity of Machine Learning Algorithms against Software Defect
Prediction [0.0]
本報告では,Liangらが開発したオンラインシーケンス・エクストリーム・ラーニング・マシン(OS-ELM)の性能を解析する。
OS-ELMは従来のディープニューラルネットワークよりも高速にトレーニングし、常にグローバルな最適解に収束する。
この分析は、NASAグループが実施する3つのプロジェクトKC1、PC4、PC3で実施される。
論文 参考訳(メタデータ) (2020-09-05T17:26:56Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。