論文の概要: TT-TFHE: a Torus Fully Homomorphic Encryption-Friendly Neural Network
Architecture
- arxiv url: http://arxiv.org/abs/2302.01584v1
- Date: Fri, 3 Feb 2023 07:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 17:05:56.679223
- Title: TT-TFHE: a Torus Fully Homomorphic Encryption-Friendly Neural Network
Architecture
- Title(参考訳): TT-TFHE: 完全同型暗号化フレンドリーニューラルネットワークアーキテクチャ
- Authors: Adrien Benamira, Tristan Gu\'erand, Thomas Peyrin, Sayandeep Saha
- Abstract要約: 本稿では,Truth-Table Neural Networks(TTnet)と呼ばれる最近の畳み込みニューラルネットワーク群を用いて,Torus FHE(TFHE)をデータセットに効果的に拡張するフレームワークを提案する。
TT-TFHEは3つのデータセット上の全ホモモルフィック暗号化(HE)セットアップの時間と正確性において、大幅に向上する。
私たちのソリューションはメモリフットプリントが非常に低く(MNISTでは数十MBまで)、ユーザ毎に数十から数百GBのメモリを必要とする他のHEセットアップとは対照的です。
- 参考スコア(独自算出の注目度): 6.712038486885704
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents TT-TFHE, a deep neural network Fully Homomorphic
Encryption (FHE) framework that effectively scales Torus FHE (TFHE) usage to
tabular and image datasets using a recent family of convolutional neural
networks called Truth-Table Neural Networks (TTnet). The proposed framework
provides an easy-to-implement, automated TTnet-based design toolbox with an
underlying (python-based) open-source Concrete implementation (CPU-based and
implementing lookup tables) for inference over encrypted data. Experimental
evaluation shows that TT-TFHE greatly outperforms in terms of time and accuracy
all Homomorphic Encryption (HE) set-ups on three tabular datasets, all other
features being equal. On image datasets such as MNIST and CIFAR-10, we show
that TT-TFHE consistently and largely outperforms other TFHE set-ups and is
competitive against other HE variants such as BFV or CKKS (while maintaining
the same level of 128-bit encryption security guarantees). In addition, our
solutions present a very low memory footprint (down to dozens of MBs for
MNIST), which is in sharp contrast with other HE set-ups that typically require
tens to hundreds of GBs of memory per user (in addition to their communication
overheads). This is the first work presenting a fully practical solution of
private inference (i.e. a few seconds for inference time and a few dozens MBs
of memory) on both tabular datasets and MNIST, that can easily scale to
multiple threads and users on server side.
- Abstract(参考訳): 本稿では,Truth-Table Neural Networks(TTnet)と呼ばれる最近の畳み込みニューラルネットワーク群を用いて,Torus FHE(TFHE)を表や画像のデータセットに効果的に拡張する,深層ニューラルネットワークであるTT-TFHEを提案する。
提案フレームワークは実装が容易でttnetベースの自動設計ツールボックスを提供し、暗号化データ上で推論を行うための基盤となる(pythonベースの)オープンソースの具体的な実装(cpuベースでルックアップテーブルの実装)を提供する。
実験により、TT-TFHEは3つの表付きデータセット上の全ホモモルフィック暗号化(HE)セットアップの時間と正確性において大幅に優れており、他のすべての機能は同等であることが示された。
MNIST や CIFAR-10 のような画像データセットでは、TT-TFHE は他のTFHE のセットアップより一貫して優れており、BFV や CKKS といった他の HE の亜種と競合している(同じレベルの128ビットの暗号化セキュリティ保証を維持している)。
さらに、当社のソリューションはメモリフットプリントが極めて低く(MNISTでは数十MBまで)、ユーザ毎に数十~数百GBのメモリを必要とする他のHEセットアップとは対照的である(通信オーバーヘッドに加えて)。
これは、テーブル形式のデータセットとMNISTの両方に完全に実用的なプライベート推論ソリューション(推測時間に数秒、メモリに数十MB)を提示する最初の作品であり、サーバ側の複数のスレッドやユーザにも容易にスケールできる。
関連論文リスト
- Searching for Efficient Linear Layers over a Continuous Space of Structured Matrices [88.33936714942996]
アインシュタイン和を通じて表現可能なすべての線形作用素の探索を可能にする統一フレームワークを提案する。
計算-最適スケーリング法則の違いは主に少数の変数によって支配されていることを示す。
そこで,Mixture-of-Experts (MoE) は,注目ブロックの投影を含む,モデルのすべての線形層におけるMoEを学習する。
論文 参考訳(メタデータ) (2024-10-03T00:44:50Z) - Neural Network-Based Rule Models With Truth Tables [5.187307904567701]
本稿では,ルールベースモデルの大域的かつ正確な解釈可能性特性と,ディープニューラルネットワークの性能を組み合わせたニューラルネットワークフレームワークを提案する。
提案したフレームワークは、$textitTruth Table Rules$ (TT-rules)と呼ばれ、$textitTruth Table nets$ (TTnets)の上に構築されています。
論文 参考訳(メタデータ) (2023-09-18T10:13:59Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Deep Neural Networks for Encrypted Inference with TFHE [0.0]
完全同型暗号(英: Fully homomorphic encryption, FHE)は、復号化せずに暗号化されたデータ上で計算を行うことができる暗号法である。
TFHEは、健康データ、バイオメトリックス、クレジットスコア、その他の個人情報などの機密データを扱うオンラインサービスのユーザのプライバシを保存する。
本稿では、任意の深度計算回路を実現するFHEスキームであるTFHEの制約に適合するディープニューラルネットワーク(DNN)を構築する方法について述べる。
論文 参考訳(メタデータ) (2023-02-13T09:53:31Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - Truth-Table Net: A New Convolutional Architecture Encodable By Design
Into SAT Formulas [6.445605125467575]
本稿では,SAT-Encodable モデルの新たなファミリである Truth Table Deep Convolutional Neural Networks (TTnets) を紹介する。
TTnetは、タイムアウトなしで完了した高速な検証時間で高い精度を達成する。
TTnetは様々なCNNアーキテクチャに適用でき、公平性、障害攻撃、厳密なルール抽出など他の特性にも拡張できると仮定する。
論文 参考訳(メタデータ) (2022-08-18T03:06:25Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - Efficient Representations for Privacy-Preserving Inference [3.330229314824913]
我々は、MNISTとCIFAR-10データセットに基づいて、プライベートCNNを構築し、評価する。
我々はCryptoNetsアーキテクチャの推論に使用される演算数を2倍に減らした。
論文 参考訳(メタデータ) (2021-10-15T19:03:35Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - Searching Central Difference Convolutional Networks for Face
Anti-Spoofing [68.77468465774267]
顔認識システムにおいて、顔の反偽造(FAS)が重要な役割を担っている。
最先端のFASメソッドの多くは、スタック化された畳み込みと専門家が設計したネットワークに依存している。
ここでは、中央差分畳み込み(CDC)に基づくフレームレベルの新しいFAS手法を提案する。
論文 参考訳(メタデータ) (2020-03-09T12:48:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。