論文の概要: Blind Evaluation Framework for Fully Homomorphic Encryption and Privacy-Preserving Machine Learning
- arxiv url: http://arxiv.org/abs/2310.13140v3
- Date: Tue, 21 May 2024 14:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-22 19:10:52.868318
- Title: Blind Evaluation Framework for Fully Homomorphic Encryption and Privacy-Preserving Machine Learning
- Title(参考訳): 完全同型暗号化とプライバシ保護機械学習のためのブラインド評価フレームワーク
- Authors: Hunjae "Timothy" Lee, Corey Clark,
- Abstract要約: Blind Evaluation Framework (BEF) は暗号的にセキュアなプログラミングフレームワークである。
インタラクティブ・ラウンド・オブ・デクリプション・アンド・アセスメント(IRDE)を使わずに、盲目で、正しい、プログラミングロジックの実行を可能にする。
これは、解読ラウンドなしでFHEで機械学習モデルのトレーニングと推論を可能にする最初のフレームワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the domain of Privacy-Preserving Machine Learning (PPML), Fully Homomorphic Encryption (FHE) is often used for encrypted computation to allow secure and privacy-preserving outsourcing of machine learning modeling. While FHE enables encrypted arithmetic operations, execution of programmatic logic such as control structures or conditional programming have remained a challenge. As a result, progress in encrypted training of PPML with FHE has been relatively stagnant compared to encrypted inference owing to the considerably higher logical complexity required in training. In addition, prior works that have demonstrated encrypted training use Interactive Rounds of Decryption and Evaluation (IRDE), where certain operations are decrypted and evaluated in plaintext using interactive rounds between the untrusted computing party (server) and the trusted private-key owner (client). In decision tree training for example, the current state-of-the-art requires d-rounds of IRDE for tree-depth of d. To address this issue in PPML and FHE, we introduce the Blind Evaluation Framework (BEF), a cryptographically secure programming framework that enables blind, but correct, execution of programming logic without IRDE. This is achieved by deconstructing programming logic into binary circuits and binary arithmetic to find alternative representations of logical statements, and adopting them to FHE for secure logical programming. To the best of our knowledge, this is the first framework to enable both training and inference of PPML models with FHE without decryption rounds. By advancing the state-of-the-art in IRDE efficiency by eliminating IRDE entirely, BEF enables adoption of FHE in use-cases where large amounts of computing services are available without the ability to have trusted clients available to perform decryption rounds.
- Abstract(参考訳): プライバシ保護機械学習(PPML)の領域では、マシンラーニングモデリングのセキュアでプライバシ保護のアウトソーシングを可能にするために、FHE(Fully Homomorphic Encryption)がしばしば暗号化計算に使用される。
FHEは暗号化演算を可能にするが、制御構造や条件付きプログラミングのようなプログラム論理の実行は依然として困難である。
その結果、PPMLとFHEの暗号化トレーニングの進歩は、トレーニングに必要な論理的複雑さがかなり高いため、暗号化推論に比べて比較的停滞している。
さらに、暗号化トレーニングを実証した以前の作業では、信頼できないコンピュータパーティ(サーバ)と信頼できるプライベートキー所有者(クライアント)の対話的なラウンドを使用して、特定の操作を平文で復号し、評価するInteractive Rounds of Decryption and Evaluation (IRDE)を使用していた。
例えば、決定木トレーニングでは、現在の最先端は d のツリー深さに対して IRDE の d ラウンドを必要とする。
PPML と FHE でこの問題に対処するため,IRDE を使わずに,視覚的かつ正しいプログラミングロジックの実行を可能にする,暗号的にセキュアなプログラミングフレームワークである Blind Evaluation Framework (BEF) を紹介した。
これは、論理論理を二進回路と二進演算に分解して論理文の代替表現を見つけ、安全な論理プログラミングのためにそれらをFHEに採用することで達成される。
我々の知る限りでは、このフレームワークは、復号ラウンドなしでFHEによるPPMLモデルのトレーニングと推論を可能にする最初のフレームワークです。
IRDEを完全に排除することによって、IRDE効率の最先端を推し進めることにより、BEFは、大量のコンピューティングサービスが利用可能なユースケースにおいて、信頼できるクライアントが復号ラウンドを実行できるような機能を持たずに、FHEの採用を可能にする。
関連論文リスト
- FoC: Figure out the Cryptographic Functions in Stripped Binaries with LLMs [54.27040631527217]
削除されたバイナリの暗号関数を抽出するFoCと呼ばれる新しいフレームワークを提案する。
FoC-BinLLMは、ROUGE-LスコアでChatGPTを14.61%上回った。
FoC-Simは52%高いRecall@1で過去のベストメソッドを上回っている。
論文 参考訳(メタデータ) (2024-03-27T09:45:33Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - SoK: Privacy Preserving Machine Learning using Functional Encryption:
Opportunities and Challenges [1.2183405753834562]
プライバシー保護機械学習(PPML)アプリケーションのための内積-FEおよび準積-FEベースの機械学習モデルに焦点を当てる。
私たちの知る限りでは、FEベースのPPMLアプローチを体系化する最初の作業です。
論文 参考訳(メタデータ) (2022-04-11T14:15:36Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - How could Neural Networks understand Programs? [67.4217527949013]
ソースコードにnlpプリトレーニング技術を直接適用するか、あるいはtheshelfによってモデルに機能を追加するかで、プログラムをより理解するためのモデルを構築するのは難しい。
本研究では,(1)操作セマンティクスの基本操作とよく一致する表現と(2)環境遷移の情報からなる情報から,モデルが学ぶべき新しいプログラムセマンティクス学習パラダイムを提案する。
論文 参考訳(メタデータ) (2021-05-10T12:21:42Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Secret Key Agreement with Physical Unclonable Functions: An Optimality
Summary [29.438154152702758]
物理的非拘束機能(PUF)は、デジタルデバイスにおけるローカルセキュリティのための有望なソリューションである。
情報理論解析を容易にするために,低複雑さ信号処理法について議論する。
ベクトル量子化器と誤り訂正符号パラメータを共同で設計する最適符号構成を提案する。
論文 参考訳(メタデータ) (2020-12-16T13:21:20Z) - Cryptotree: fast and accurate predictions on encrypted structured data [0.0]
ホモモルフィック暗号化(HE)は、入力と出力の両方が暗号化される暗号化データ上での計算を可能にする能力で認められている。
線形回帰と比較して非常に強力な学習手法であるランダムフォレスト(RF)の利用を可能にするフレームワークであるCryptotreeを提案する。
論文 参考訳(メタデータ) (2020-06-15T11:48:01Z) - Can We Learn Heuristics For Graphical Model Inference Using
Reinforcement Learning? [114.24881214319048]
我々は、強化学習を用いて、高次条件ランダム場(CRF)における推論を解くためのプログラム、すなわち、ポリシーを学習できることを示します。
本手法は,ポテンシャルの形式に制約を加えることなく,推論タスクを効率的に解く。
論文 参考訳(メタデータ) (2020-04-27T19:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。