論文の概要: Orion: A Fully Homomorphic Encryption Framework for Deep Learning
- arxiv url: http://arxiv.org/abs/2311.03470v3
- Date: Wed, 12 Feb 2025 20:06:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:43:51.522983
- Title: Orion: A Fully Homomorphic Encryption Framework for Deep Learning
- Title(参考訳): Orion: ディープラーニングのための完全同型暗号化フレームワーク
- Authors: Austin Ebel, Karthik Garimella, Brandon Reagen,
- Abstract要約: 完全同型暗号化(FHE)は、暗号化されたデータ上で直接計算を行うことで、プライバシーとセキュリティを大幅に改善する可能性がある。
FHEでセキュアな神経推論を大規模に展開する上で直面する大きな課題のひとつは、これらのネットワークをFHEプリミティブに効果的にマッピングすることだ。
本稿では、FHEを用いたプライベートニューラルネットワークのための完全に自動化されたフレームワークであるOrionを用いて、これらの課題に対処する。
- 参考スコア(独自算出の注目度): 3.0088450191132394
- License:
- Abstract: Fully Homomorphic Encryption (FHE) has the potential to substantially improve privacy and security by enabling computation directly on encrypted data. This is especially true with deep learning, as today, many popular user services are powered by neural networks in the cloud. Beyond its well-known high computational costs, one of the major challenges facing wide-scale deployment of FHE-secured neural inference is effectively mapping these networks to FHE primitives. FHE poses many programming challenges including packing large vectors, managing accumulated noise, and translating arbitrary and general-purpose programs to the limited instruction set provided by FHE. These challenges make building large FHE neural networks intractable using the tools available today. In this paper we address these challenges with Orion, a fully-automated framework for private neural inference using FHE. Orion accepts deep neural networks written in PyTorch and translates them into efficient FHE programs. We achieve this by proposing a novel single-shot multiplexed packing strategy for arbitrary convolutions and through a new, efficient technique to automate bootstrap placement and scale management. We evaluate Orion on common benchmarks used by the FHE deep learning community and outperform state-of-the-art by 2.38x on ResNet-20, the largest network they report. Orion's techniques enable processing much deeper and larger networks. We demonstrate this by evaluating ResNet-50 on ImageNet and present the first high-resolution FHE object detection experiments using a YOLO-v1 model with 139 million parameters. Orion is open-source for all to use at: https://github.com/baahl-nyu/orion
- Abstract(参考訳): 完全同型暗号化(FHE)は、暗号化されたデータ上で直接計算を行うことで、プライバシーとセキュリティを大幅に改善する可能性がある。
これは特にディープラーニングにおいて当てはまり、今日では多くの人気のあるユーザサービスは、クラウド内のニューラルネットワークを利用している。
そのよく知られた高い計算コスト以外にも、FHEにセキュアな神経推論を大規模に展開する上で直面する大きな課題の1つは、これらのネットワークをFHEプリミティブに効果的にマッピングすることである。
FHEは、大きなベクトルのパッケージ化、蓄積されたノイズの管理、任意の汎用プログラムをFHEが提供する限られた命令セットに翻訳するなど、多くのプログラミング上の課題を提起する。
これらの課題は、現在利用可能なツールを使用して、大きなFHEニューラルネットワークを構築することを可能にします。
本稿では、FHEを用いたプライベートニューラルネットワークのための完全に自動化されたフレームワークであるOrionを用いて、これらの課題に対処する。
Orionは、PyTorchで記述されたディープニューラルネットワークを受け入れ、それらを効率的なFHEプログラムに変換する。
我々は、任意の畳み込みのための新しい単一ショット多重パッキング戦略を提案し、ブートストラップ配置とスケール管理を自動化するための新しい効率的手法によって実現した。
我々は、FHEのディープラーニングコミュニティが使用する一般的なベンチマークでOrionを評価し、彼らが報告した最大のネットワークであるResNet-20の2.38倍の最先端性能を実現した。
Orionの技術により、より深いネットワークを処理できる。
我々は、ImageNet上でResNet-50を評価し、1億1900万のパラメータを持つYOLO-v1モデルを用いて、最初の高分解能FHEオブジェクト検出実験を示す。
https://github.com/baahl-nyu/orion
関連論文リスト
- Till the Layers Collapse: Compressing a Deep Neural Network through the Lenses of Batch Normalization Layers [5.008189006630566]
textbfLayers textbfCollapse (TLC) と呼ばれる手法を導入し、バッチ正規化層のレンズを通してディープニューラルネットワークを圧縮する。
我々は,画像分類と自然言語処理(NLP)タスクの両面で,Swin-T,MobileNet-V2,RoBERTaなどの人気モデル上で本手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-12-19T17:26:07Z) - NNsight and NDIF: Democratizing Access to Open-Weight Foundation Model Internals [58.83169560132308]
NNsightとNDIFは、非常に大きなニューラルネットワークの科学的研究を可能にするために、タンデムで機能する技術である。
NNsightは、遅延リモート実行を導入するためにPyTorchを拡張したオープンソースのシステムである。
NDIFは、NNsightリクエストを実行するスケーラブルな推論サービスで、GPUリソースと事前トレーニングされたモデルを共有することができる。
論文 参考訳(メタデータ) (2024-07-18T17:59:01Z) - Exploring Green AI for Audio Deepfake Detection [21.17957700009653]
ディープニューラルネットワークを利用した最先端のオーディオディープフェイク検出器は、印象的な認識性能を示している。
ディープNLPモデルはCOtextsubscript2の約626klbのCOtextsubscript2を生成する。
そこで本研究では,標準CPUリソースを用いてシームレスにトレーニング可能な,オーディオディープフェイク検出のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-21T10:54:21Z) - Active search and coverage using point-cloud reinforcement learning [50.741409008225766]
本稿では,目的探索とカバレッジのためのエンドツーエンドの深層強化学習ソリューションを提案する。
RLの深い階層的特徴学習は有効であり、FPS(Fastthest Point sample)を用いることで点数を削減できることを示す。
また、ポイントクラウドに対するマルチヘッドの注意がエージェントの学習を高速化する上で有効であるが、同じ結果に収束することを示す。
論文 参考訳(メタデータ) (2023-12-18T18:16:30Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - EDLaaS; Fully Homomorphic Encryption Over Neural Network Graphs [7.195443855063635]
我々は、Microsoft Simple Encrypted Arithmetic Library (MS-SEAL)が提供する固定点上の第4世代Cheon, Kim, Kim and Song (CKKS) FHEスキームを使用する。
FHEは、プライバシ保護機械学習(PPML)のすべての問題に対するパナセアではなく、モデルトレーニングのような特定の制限がまだ残っていることが分かっています。
我々は、畳み込みニューラルネットワーク(CNN)、ファッションMNIST、およびレベル付きFHE操作に焦点を当てる。
論文 参考訳(メタデータ) (2021-10-26T12:43:35Z) - StereoSpike: Depth Learning with a Spiking Neural Network [0.0]
深度推定のためのエンドツーエンドのニューロモルフィック手法を提案する。
我々はSpiking Neural Network (SNN) と、StereoSpikeという名前のU-Netライクなエンコーダデコーダアーキテクチャを用いている。
このアーキテクチャは、スポーキング以外のアーキテクチャよりも、非常によく一般化されていることを実証します。
論文 参考訳(メタデータ) (2021-09-28T14:11:36Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets [65.28292822614418]
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
論文 参考訳(メタデータ) (2020-10-28T08:49:45Z) - ARIANN: Low-Interaction Privacy-Preserving Deep Learning via Function
Secret Sharing [2.6228228854413356]
AriaNNは、機密データに対するプライベートニューラルネットワークトレーニングと推論のための、低インタラクションのプライバシ保護フレームワークである。
我々は、ReLU、MaxPool、BatchNormといったニューラルネットワークの構築ブロックのためのプリミティブを設計する。
n-party private federated learning をサポートするための拡張として,当社のフレームワークを実装した。
論文 参考訳(メタデータ) (2020-06-08T13:40:27Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。