論文の概要: Secure Machine Learning in the Cloud Using One Way Scrambling by
Deconvolution
- arxiv url: http://arxiv.org/abs/2111.03125v1
- Date: Thu, 4 Nov 2021 19:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 04:03:12.408056
- Title: Secure Machine Learning in the Cloud Using One Way Scrambling by
Deconvolution
- Title(参考訳): デコンボリューションによる一方向スクランブルを用いたクラウド上のセキュア機械学習
- Authors: Yiftach Savransky, Roni Mateless, Gilad Katz
- Abstract要約: クラウドベースの機械学習サービス(CMLS)は、大量のデータに基づいて事前トレーニングされた高度なモデルを活用することができる。
非対称暗号化では、データをクラウドで復号化する必要があるが、同型暗号化は遅すぎて実装が難しいことが多い。
本稿では,デコンボリューションに基づくスクランブルフレームワークであるOne Way Scrambling by Deconvolution (OWSD)を提案する。
- 参考スコア(独自算出の注目度): 2.9692754277987286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud-based machine learning services (CMLS) enable organizations to take
advantage of advanced models that are pre-trained on large quantities of data.
The main shortcoming of using these services, however, is the difficulty of
keeping the transmitted data private and secure. Asymmetric encryption requires
the data to be decrypted in the cloud, while Homomorphic encryption is often
too slow and difficult to implement. We propose One Way Scrambling by
Deconvolution (OWSD), a deconvolution-based scrambling framework that offers
the advantages of Homomorphic encryption at a fraction of the computational
overhead. Extensive evaluation on multiple image datasets demonstrates OWSD's
ability to achieve near-perfect classification performance when the output
vector of the CMLS is sufficiently large. Additionally, we provide empirical
analysis of the robustness of our approach.
- Abstract(参考訳): クラウドベースの機械学習サービス(cmls)は、大量のデータで事前トレーニングされた高度なモデルを活用することができる。
しかし、これらのサービスを使用する主な欠点は、送信されたデータをプライベートかつセキュアに保つことの難しさである。
非対称暗号化は、データをクラウドで復号化する必要があるが、準同型暗号化は、しばしば遅すぎて実装が困難である。
計算オーバーヘッドのごく一部で準同型暗号の利点を提供するデコンボリューションベースのスクランブルフレームワークowsd(deconvolution by deconvolution)を提案する。
複数の画像データセットの広範な評価は、cmlsの出力ベクトルが十分に大きい場合にowsdがほぼ完全な分類性能を達成する能力を示す。
さらに、我々のアプローチの堅牢性に関する実証分析を提供する。
関連論文リスト
- Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Secure Neuroimaging Analysis using Federated Learning with Homomorphic
Encryption [14.269757725951882]
フェデレートラーニング(FL)は、異なるリモートデータソース上の機械学習モデルの分散計算を可能にする。
最近のメンバーシップ攻撃は、モデルパラメータや要約統計が中央サイトと共有されているときに、個人的または機密性の高い個人情報が漏洩したり、推測されることがあることを示している。
完全同相暗号(FHE)を用いたセキュアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-07T12:15:52Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Confused Modulo Projection based Somewhat Homomorphic Encryption --
Cryptosystem, Library and Applications on Secure Smart Cities [19.532232041651522]
CMP-SWHEという混同モジュロ射影定理に基づく、ややホモモルフィックな暗号暗号システムのシングルサーババージョンを提案する。
クライアント側では、元のデータは増幅、ランダム化、紛らわしい冗長性の設定によって暗号化される。
サーバー側で暗号化されたデータを操作することは、元のデータを操作することと同等です。
論文 参考訳(メタデータ) (2020-12-19T14:20:56Z) - FPGA-Based Hardware Accelerator of Homomorphic Encryption for Efficient
Federated Learning [9.733675923979108]
フェデレートラーニングは、転送された中間データを保護するために、様々なプライバシー保護機構を利用する傾向がある。
正確性とセキュリティをより効率的に維持することは、連合学習の重要な問題である。
我々のフレームワークは、柔軟性とポータビリティのための高レベルな合成により、代表的なPaillier準同型暗号システムを実装している。
論文 参考訳(メタデータ) (2020-07-21T01:59:58Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。