論文の概要: Secure Machine Learning in the Cloud Using One Way Scrambling by
Deconvolution
- arxiv url: http://arxiv.org/abs/2111.03125v1
- Date: Thu, 4 Nov 2021 19:46:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 04:03:12.408056
- Title: Secure Machine Learning in the Cloud Using One Way Scrambling by
Deconvolution
- Title(参考訳): デコンボリューションによる一方向スクランブルを用いたクラウド上のセキュア機械学習
- Authors: Yiftach Savransky, Roni Mateless, Gilad Katz
- Abstract要約: クラウドベースの機械学習サービス(CMLS)は、大量のデータに基づいて事前トレーニングされた高度なモデルを活用することができる。
非対称暗号化では、データをクラウドで復号化する必要があるが、同型暗号化は遅すぎて実装が難しいことが多い。
本稿では,デコンボリューションに基づくスクランブルフレームワークであるOne Way Scrambling by Deconvolution (OWSD)を提案する。
- 参考スコア(独自算出の注目度): 2.9692754277987286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cloud-based machine learning services (CMLS) enable organizations to take
advantage of advanced models that are pre-trained on large quantities of data.
The main shortcoming of using these services, however, is the difficulty of
keeping the transmitted data private and secure. Asymmetric encryption requires
the data to be decrypted in the cloud, while Homomorphic encryption is often
too slow and difficult to implement. We propose One Way Scrambling by
Deconvolution (OWSD), a deconvolution-based scrambling framework that offers
the advantages of Homomorphic encryption at a fraction of the computational
overhead. Extensive evaluation on multiple image datasets demonstrates OWSD's
ability to achieve near-perfect classification performance when the output
vector of the CMLS is sufficiently large. Additionally, we provide empirical
analysis of the robustness of our approach.
- Abstract(参考訳): クラウドベースの機械学習サービス(cmls)は、大量のデータで事前トレーニングされた高度なモデルを活用することができる。
しかし、これらのサービスを使用する主な欠点は、送信されたデータをプライベートかつセキュアに保つことの難しさである。
非対称暗号化は、データをクラウドで復号化する必要があるが、準同型暗号化は、しばしば遅すぎて実装が困難である。
計算オーバーヘッドのごく一部で準同型暗号の利点を提供するデコンボリューションベースのスクランブルフレームワークowsd(deconvolution by deconvolution)を提案する。
複数の画像データセットの広範な評価は、cmlsの出力ベクトルが十分に大きい場合にowsdがほぼ完全な分類性能を達成する能力を示す。
さらに、我々のアプローチの堅牢性に関する実証分析を提供する。
関連論文リスト
- Cryptanalysis via Machine Learning Based Information Theoretic Metrics [58.96805474751668]
本稿では,機械学習アルゴリズムの新たな2つの応用法を提案する。
これらのアルゴリズムは、監査設定で容易に適用でき、暗号システムの堅牢性を評価することができる。
本稿では,DES,RSA,AES ECBなど,IND-CPAの安全でない暗号化スキームを高精度に識別する。
論文 参考訳(メタデータ) (2025-01-25T04:53:36Z) - A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーション学習(Federated Learning)は、分散デバイスやサーバ上でのトレーニングモデルをサポートする機械学習手法である。
我々は,データ漏洩を最小限に抑えるために,選択的暗号化,同型暗号化,差分プライバシー,ビットワイズスクランブルを利用する新しい手法を提案する。
我々の手法はモデル重みに完全同型暗号を適用するよりも90%高速である。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - Secure Outsourced Decryption for FHE-based Privacy-preserving Cloud Computing [3.125865379632205]
ホモモルフィック暗号化(HE)は、データのプライバシを保護するためのソリューションのひとつであり、暗号化されたデータをクラウドでセキュアに処理できるようにする。
本稿では、RLWEをベースとした完全同型暗号方式のためのアウトソース復号化プロトコルを提案する。
実験により,提案プロトコルはクライアントのローカル復号化において最大67%の高速化を実現し,空間使用量の50%の削減を図った。
論文 参考訳(メタデータ) (2024-06-28T14:51:36Z) - HETAL: Efficient Privacy-preserving Transfer Learning with Homomorphic Encryption [4.164336621664897]
HETALは、効率的な同型暗号化に基づく転送学習アルゴリズムである。
本稿では,従来の手法よりも1.8~323倍高速な暗号化行列乗算アルゴリズムを提案する。
実験では、合計訓練時間は567-3442秒であり、1時間未満である。
論文 参考訳(メタデータ) (2024-03-21T03:47:26Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。