論文の概要: GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2401.14840v1
- Date: Fri, 26 Jan 2024 13:12:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 15:01:14.685957
- Title: GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption
- Title(参考訳): GuardML: ハイブリッド同型暗号化による効率的なプライバシ保護機械学習サービス
- Authors: Eugene Frimpong, Khoa Nguyen, Mindaugas Budzys, Tanveer Khan, Antonis
Michalas
- Abstract要約: プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
- 参考スコア(独自算出の注目度): 2.611778281107039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine Learning (ML) has emerged as one of data science's most
transformative and influential domains. However, the widespread adoption of ML
introduces privacy-related concerns owing to the increasing number of malicious
attacks targeting ML models. To address these concerns, Privacy-Preserving
Machine Learning (PPML) methods have been introduced to safeguard the privacy
and security of ML models. One such approach is the use of Homomorphic
Encryption (HE). However, the significant drawbacks and inefficiencies of
traditional HE render it impractical for highly scalable scenarios.
Fortunately, a modern cryptographic scheme, Hybrid Homomorphic Encryption
(HHE), has recently emerged, combining the strengths of symmetric cryptography
and HE to surmount these challenges. Our work seeks to introduce HHE to ML by
designing a PPML scheme tailored for end devices. We leverage HHE as the
fundamental building block to enable secure learning of classification outcomes
over encrypted data, all while preserving the privacy of the input data and ML
model. We demonstrate the real-world applicability of our construction by
developing and evaluating an HHE-based PPML application for classifying heart
disease based on sensitive ECG data. Notably, our evaluations revealed a slight
reduction in accuracy compared to inference on plaintext data. Additionally,
both the analyst and end devices experience minimal communication and
computation costs, underscoring the practical viability of our approach. The
successful integration of HHE into PPML provides a glimpse into a more secure
and privacy-conscious future for machine learning on relatively constrained end
devices.
- Abstract(参考訳): 機械学習(ML)は、データサイエンスで最も革新的で影響力のある分野の1つである。
しかし、MLが広く採用されているため、MLモデルをターゲットにした悪意のある攻撃が増えているため、プライバシに関する懸念が生じている。
これらの懸念に対処するため、プライバシ保存機械学習(PPML)メソッドが導入され、MLモデルのプライバシとセキュリティを保護する。
そのようなアプローチの1つは、準同型暗号(he)の使用である。
しかしながら、従来のheの重大な欠点と非効率は、高度にスケーラブルなシナリオでは実用的ではない。
幸いなことに、現代的な暗号スキームであるhybrid homomorphic encryption (hhe)が最近登場し、対称暗号の強みとこれらの課題を克服した。
我々の研究は、エンドデバイスに適したPPMLスキームを設計し、HHEをMLに導入することを目指している。
我々はHHEを基本的なビルディングブロックとして活用し、入力データとMLモデルのプライバシを保ちながら、暗号化されたデータに対する分類結果のセキュアな学習を可能にする。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションを開発・評価することで, 建設の現実的な適用性を実証する。
特に,本評価では,平文データの推測に比べて精度がわずかに低下した。
さらに、アナリストとエンドデバイスの両方が最小限の通信と計算コストを経験し、我々のアプローチの実用性を強調している。
HHEをPPMLに統合することで、比較的制約のあるエンドデバイス上でのマシンラーニングにおいて、よりセキュアでプライバシを重視した未来を垣間見ることができます。
関連論文リスト
- CoCA: Regaining Safety-awareness of Multimodal Large Language Models with Constitutional Calibration [90.36429361299807]
マルチモーダルな大言語モデル (MLLM) は、視覚的な入力を含む会話への関与において顕著な成功を収めている。
視覚的モダリティの統合は、MLLMが悪意のある視覚的入力に影響を受けやすいという、ユニークな脆弱性を導入している。
本稿では,出力分布を校正することでMLLMの安全性を向上するCoCA技術を紹介する。
論文 参考訳(メタデータ) (2024-09-17T17:14:41Z) - A Pervasive, Efficient and Private Future: Realizing Privacy-Preserving Machine Learning Through Hybrid Homomorphic Encryption [2.434439232485276]
プライバシ保存機械学習(PPML)手法は、MLモデルのプライバシとセキュリティリスクを軽減するために提案されている。
これらの課題を克服するために、対称暗号とHEを組み合わせた現代の暗号方式が導入された。
本研究は,エッジデバイス向けのリソースフレンドリなPPMLプロトコルを提案することにより,HHEをML分野に導入する。
論文 参考訳(メタデータ) (2024-09-10T11:04:14Z) - A Quantization-based Technique for Privacy Preserving Distributed Learning [2.2139875218234475]
本稿では,機械学習モデルの分散トレーニングのための,新しい規則に準拠したデータ保護手法について述べる。
本手法は,Hash-Combとランダム化を組み合わせた量子化マルチハッシュデータ表現に基づくプロトコルを用いることで,トレーニングデータとMLモデルパラメータの両方を保護する。
論文 参考訳(メタデータ) (2024-06-26T14:54:12Z) - Vulnerability of Machine Learning Approaches Applied in IoT-based Smart Grid: A Review [51.31851488650698]
機械学習(ML)は、IoT(Internet-of-Things)ベースのスマートグリッドでの使用頻度が高まっている。
電力信号に注入された逆方向の歪みは システムの正常な制御と操作に大きな影響を及ぼす
安全クリティカルパワーシステムに適用されたMLsgAPPの脆弱性評価を行うことが不可欠である。
論文 参考訳(メタデータ) (2023-08-30T03:29:26Z) - HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models [0.23624125155742057]
ホモモルフィック暗号化(FHE)は、プライバシを諦めることなくMLサービスを使用する個人を可能にする、有望なテクニックである。
我々は、ONNXモデルと同型暗号化データとの推論をプライバシー保護するためのオープンソースの機械学習ツールセットであるHE-MANを紹介する。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートしているが、精度を犠牲にしない。
論文 参考訳(メタデータ) (2023-02-16T12:37:14Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - SoK: Privacy Preserving Machine Learning using Functional Encryption:
Opportunities and Challenges [1.2183405753834562]
プライバシー保護機械学習(PPML)アプリケーションのための内積-FEおよび準積-FEベースの機械学習モデルに焦点を当てる。
私たちの知る限りでは、FEベースのPPMLアプローチを体系化する最初の作業です。
論文 参考訳(メタデータ) (2022-04-11T14:15:36Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。