論文の概要: HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models
- arxiv url: http://arxiv.org/abs/2302.08260v1
- Date: Thu, 16 Feb 2023 12:37:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 13:59:27.698608
- Title: HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models
- Title(参考訳): HE-MAN --oNnxモデルを用いた同型暗号化マシーン学習
- Authors: Martin Nocker, David Drexel, Michael Rader, Alessio Montuoro, Pascal
Sch\"ottle
- Abstract要約: ホモモルフィック暗号化(FHE)は、プライバシを諦めることなくMLサービスを使用する個人を可能にする、有望なテクニックである。
我々は、ONNXモデルと同型暗号化データとの推論をプライバシー保護するためのオープンソースの機械学習ツールセットであるHE-MANを紹介する。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートしているが、精度を犠牲にしない。
- 参考スコア(独自算出の注目度): 0.23624125155742057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) algorithms are increasingly important for the success
of products and services, especially considering the growing amount and
availability of data. This also holds for areas handling sensitive data, e.g.
applications processing medical data or facial images. However, people are
reluctant to pass their personal sensitive data to a ML service provider. At
the same time, service providers have a strong interest in protecting their
intellectual property and therefore refrain from publicly sharing their ML
model. Fully homomorphic encryption (FHE) is a promising technique to enable
individuals using ML services without giving up privacy and protecting the ML
model of service providers at the same time. Despite steady improvements, FHE
is still hardly integrated in today's ML applications.
We introduce HE-MAN, an open-source two-party machine learning toolset for
privacy preserving inference with ONNX models and homomorphically encrypted
data. Both the model and the input data do not have to be disclosed. HE-MAN
abstracts cryptographic details away from the users, thus expertise in FHE is
not required for either party. HE-MAN 's security relies on its underlying FHE
schemes. For now, we integrate two different homomorphic encryption schemes,
namely Concrete and TenSEAL. Compared to prior work, HE-MAN supports a broad
range of ML models in ONNX format out of the box without sacrificing accuracy.
We evaluate the performance of our implementation on different network
architectures classifying handwritten digits and performing face recognition
and report accuracy and latency of the homomorphically encrypted inference.
Cryptographic parameters are automatically derived by the tools. We show that
the accuracy of HE-MAN is on par with models using plaintext input while
inference latency is several orders of magnitude higher compared to the
plaintext case.
- Abstract(参考訳): 機械学習(ML)アルゴリズムは、特にデータの量と可用性の増加を考慮すると、製品やサービスの成功にとってますます重要になっている。
また、医療データや顔画像を処理するアプリケーションなど、センシティブなデータを扱う領域も扱う。
しかし、人々は個人機密データをMLサービスプロバイダに渡すことに消極的です。
同時に、サービスプロバイダは、自身の知的財産権を保護することに強い関心を持ち、したがって、MLモデルを公開することを避けています。
完全な同型暗号化(FHE)は、プライバシを放棄せず、同時にサービスプロバイダのMLモデルを保護することなく、MLサービスを使用する個人を可能にする、有望なテクニックである。
安定した改善にもかかわらず、FHEは今日のMLアプリケーションにはほとんど統合されていない。
我々は,ONNXモデルと同型暗号化データによる推論をプライバシ保護するための,オープンソースの2要素機械学習ツールセットであるHE-MANを紹介する。
モデルと入力データの両方を開示する必要はない。
HE-MANは暗号化の詳細をユーザーから抽象化するので、FHEの専門知識はどちらの当事者にも必要ない。
HE-MANのセキュリティは基礎となるFHE方式に依存している。
現在、我々は2つの異なる同型暗号化スキーム、すなわち concrete と TenSEAL を統合している。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートするが、精度は犠牲にならない。
本稿では,手書き桁を分類し,顔認識を行い,準同型暗号化推論の精度とレイテンシを報告するネットワークアーキテクチャの性能評価を行った。
暗号パラメータはツールによって自動的に導き出される。
その結果,ヘマンの精度は平文入力を用いたモデルと同程度であり,推論レイテンシは平文の場合に比べて数桁高いことがわかった。
関連論文リスト
- KnowledgeSG: Privacy-Preserving Synthetic Text Generation with Knowledge Distillation from Server [48.04903443425111]
大規模言語モデル (LLM) は、多くの当事者が自身のプライベートデータでLPMを微調整できるようにする。
置換のために合成データを利用するような既存のソリューションは、同時にパフォーマンスを改善し、プライバシを保存するのに苦労している。
我々は、合成データ品質を高め、プライバシを確保しつつモデル性能を向上させる新しいクライアントサーバフレームワークであるKnowledgeSGを提案する。
論文 参考訳(メタデータ) (2024-10-08T06:42:28Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - SABLE: Secure And Byzantine robust LEarning [9.455980760111498]
ホモモルフィック暗号化(HE)は、分散学習におけるプライバシを保護するための主要なセキュリティ対策として登場した。
本稿では,最初の同型およびビザンチン頑健な分散学習アルゴリズムであるSABLEを紹介する。
論文 参考訳(メタデータ) (2023-09-11T11:54:42Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Effect of Homomorphic Encryption on the Performance of Training
Federated Learning Generative Adversarial Networks [10.030986278376567]
GAN(Generative Adversarial Network)は、機械学習(ML)分野におけるディープラーニング生成モデルである。
医学などの特定の分野において、トレーニングデータは、異なる病院にまたがって保存される病院患者の記録である可能性がある。
本稿では,3種類のホモモルフィック暗号を用いたFL-GANの学習性能の低下に着目した。
論文 参考訳(メタデータ) (2022-07-01T08:35:10Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Privacy-Preserving Wavelet Wavelet Neural Network with Fully Homomorphic
Encryption [5.010425616264462]
プライバシ保護機械学習(PPML)は、プライバシ保護と、マシンラーニングモデルの構築に使用されるデータに対するセキュリティの提供を目的としている。
プライバシを保護すると同時に,モデルの効率を損なわないよう,完全同型暗号化ウェーブレットニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-05-26T10:40:31Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。