論文の概要: SoK: Privacy Preserving Machine Learning using Functional Encryption:
Opportunities and Challenges
- arxiv url: http://arxiv.org/abs/2204.05136v1
- Date: Mon, 11 Apr 2022 14:15:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-12 22:03:51.842027
- Title: SoK: Privacy Preserving Machine Learning using Functional Encryption:
Opportunities and Challenges
- Title(参考訳): SoK: 機能暗号化を用いたマシンラーニングのプライバシ保護 - 機会と課題
- Authors: Prajwal Panzade and Daniel Takabi
- Abstract要約: プライバシー保護機械学習(PPML)アプリケーションのための内積-FEおよび準積-FEベースの機械学習モデルに焦点を当てる。
私たちの知る限りでは、FEベースのPPMLアプローチを体系化する最初の作業です。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advent of functional encryption, new possibilities for computation
on encrypted data have arisen. Functional Encryption enables data owners to
grant third-party access to perform specified computations without disclosing
their inputs. It also provides computation results in plain, unlike Fully
Homomorphic Encryption. The ubiquitousness of machine learning has led to the
collection of massive private data in the cloud computing environment. This
raises potential privacy issues and the need for more private and secure
computing solutions. Numerous efforts have been made in privacy-preserving
machine learning (PPML) to address security and privacy concerns. There are
approaches based on fully homomorphic encryption (FHE), secure multiparty
computation (SMC), and, more recently, functional encryption (FE). However,
FE-based PPML is still in its infancy and has not yet gotten much attention
compared to FHE-based PPML approaches. In this paper, we provide a
systematization of PPML works based on FE summarizing state-of-the-art in the
literature. We focus on Inner-product-FE and Quadratic-FE-based machine
learning models for the PPML applications. We analyze the performance and
usability of the available FE libraries and their applications to PPML. We also
discuss potential directions for FE-based PPML approaches. To the best of our
knowledge, this is the first work to systematize FE-based PPML approaches.
- Abstract(参考訳): 関数型暗号化の出現により、暗号化データの計算に新たな可能性が生まれた。
関数暗号化により、データ所有者は入力を開示することなく、特定の計算を行うためのサードパーティへのアクセスを許可することができる。
また、完全同型暗号化とは異なり、計算結果を平易に提供する。
機械学習のユビキタス性は、クラウドコンピューティング環境における膨大なプライベートデータの収集につながった。
これにより、潜在的なプライバシー問題と、よりプライベートでセキュアなコンピューティングソリューションの必要性が生じる。
セキュリティとプライバシの懸念に対処するため、プライバシ保護機械学習(PPML)に多くの取り組みがなされている。
完全準同型暗号(fhe)、セキュア・マルチパーティ・計算(smc)、さらに最近では機能的暗号化(fe)に基づく手法がある。
しかし、FEベースのPPMLはまだ初期段階であり、FHEベースのPPMLアプローチと比べてあまり注目されていない。
本稿では,本論文におけるfeの要約に基づくppml作品の体系化について述べる。
PPMLアプリケーションのための内積-FEと準積-FEに基づく機械学習モデルに焦点を当てる。
利用可能なFEライブラリとそのアプリケーションの性能とユーザビリティをPPMLに解析する。
また、FEベースのPPMLアプローチの可能性についても論じる。
私たちの知る限りでは、FEベースのPPMLアプローチを体系化する最初の作業です。
関連論文リスト
- The Communication-Friendly Privacy-Preserving Machine Learning against Malicious Adversaries [14.232901861974819]
プライバシー保護機械学習(PPML)は、機密情報を保護しながらセキュアなデータ分析を可能にする革新的なアプローチである。
セキュアな線形関数評価のための効率的なプロトコルを導入する。
我々は、このプロトコルを拡張して、線形層と非線形層を扱い、幅広い機械学習モデルとの互換性を確保する。
論文 参考訳(メタデータ) (2024-11-14T08:55:14Z) - A Pervasive, Efficient and Private Future: Realizing Privacy-Preserving Machine Learning Through Hybrid Homomorphic Encryption [2.434439232485276]
プライバシ保存機械学習(PPML)手法は、MLモデルのプライバシとセキュリティリスクを軽減するために提案されている。
これらの課題を克服するために、対称暗号とHEを組み合わせた現代の暗号方式が導入された。
本研究は,エッジデバイス向けのリソースフレンドリなPPMLプロトコルを提案することにより,HHEをML分野に導入する。
論文 参考訳(メタデータ) (2024-09-10T11:04:14Z) - Wildest Dreams: Reproducible Research in Privacy-preserving Neural
Network Training [2.853180143237022]
この作業は、ユーザデータのプライバシを維持することが最も重要であるMLモデルのトレーニングフェーズに重点を置いている。
我々は、現在のアプローチの理解を容易にする、しっかりとした理論的背景を提供する。
我々は,いくつかの論文の成果を再現し,その分野における既存の研究がオープンサイエンスを支援するレベルについて検討する。
論文 参考訳(メタデータ) (2024-03-06T10:25:36Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Differentially Private Deep Q-Learning for Pattern Privacy Preservation
in MEC Offloading [76.0572817182483]
攻撃者は、エッジサーバ(ES)のキュー情報とユーザの使用パターンを推測するために、オフロードの決定を盗み取ることができる。
パターンプライバシ(PP)を維持しつつ,レイテンシ,ESのエネルギー消費,タスク削減率を両立させるオフロード戦略を提案する。
そこで我々はDP-DQOアルゴリズムを開発し,PP問題にノイズを注入することでこの問題に対処する。
論文 参考訳(メタデータ) (2023-02-09T12:50:18Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - Privacy-Preserving Machine Learning: Methods, Challenges and Directions [4.711430413139393]
よく設計されたプライバシー保護機械学習(PPML)ソリューションは、アカデミックや業界から研究の関心が高まりつつある。
本稿では,既存のプライバシ保護手法を体系的にレビューし,様々なPPMLソリューションの評価をガイドするPGUモデルを提案する。
論文 参考訳(メタデータ) (2021-08-10T02:58:31Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。