論文の概要: Falcon: Accelerating Homomorphically Encrypted Convolutions for
Efficient Private Mobile Network Inference
- arxiv url: http://arxiv.org/abs/2308.13189v1
- Date: Fri, 25 Aug 2023 05:48:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 15:01:55.977321
- Title: Falcon: Accelerating Homomorphically Encrypted Convolutions for
Efficient Private Mobile Network Inference
- Title(参考訳): falcon: 効率的なプライベートモバイルネットワーク推論のための準同型暗号化畳み込みの加速
- Authors: Tianshi Xu, Meng Li, Runsheng Wang, Ru Huang
- Abstract要約: ホモモルフィック暗号化(HE)ベースの2次元計算(2PC)フレームワークはこれらのネットワークに最適化されておらず、高い推論オーバーヘッドに悩まされている。
HEベースの2PCフレームワークのための効率的な高密度パッキングアルゴリズムであるFalconを提案する。
Falconは、ゼロ・アウェアのグレディ・パッキングアルゴリズムと、奥行きの畳み込みのためのパッキング密度を改善するコミュニケーション・アウェア・オペレーター戦略を備えている。
- 参考スコア(独自算出の注目度): 2.7554944859354675
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient networks, e.g., MobileNetV2, EfficientNet, etc, achieves
state-of-the-art (SOTA) accuracy with lightweight computation. However,
existing homomorphic encryption (HE)-based two-party computation (2PC)
frameworks are not optimized for these networks and suffer from a high
inference overhead. We observe the inefficiency mainly comes from the packing
algorithm, which ignores the computation characteristics and the communication
bottleneck of homomorphically encrypted depthwise convolutions. Therefore, in
this paper, we propose Falcon, an effective dense packing algorithm for
HE-based 2PC frameworks. Falcon features a zero-aware greedy packing algorithm
and a communication-aware operator tiling strategy to improve the packing
density for depthwise convolutions. Compared to SOTA HE-based 2PC frameworks,
e.g., CrypTFlow2, Iron and Cheetah, Falcon achieves more than 15.6x, 5.1x and
1.8x latency reduction, respectively, at operator level. Meanwhile, at network
level, Falcon allows for 1.4% and 4.2% accuracy improvement over Cheetah on
CIFAR-100 and TinyImagenet datasets with iso-communication, respecitvely.
- Abstract(参考訳): MobileNetV2、EfficientNetなどの効率的なネットワークは、軽量な計算で最先端(SOTA)の精度を達成する。
しかし、既存のホモモルフィック暗号(HE)ベースの2PCフレームワークはこれらのネットワークに最適化されておらず、高い推論オーバーヘッドに悩まされている。
我々は,同型暗号化深度畳み込みの計算特性と通信ボトルネックを無視するパッキングアルゴリズムから得られる非効率性を主に観察する。
そこで本稿では,he ベースの 2pc フレームワークのための効率的な密充填アルゴリズム falcon を提案する。
falconは、ゼロ・アウェア・グリーディ・パッキングアルゴリズムとコミュニケーション・アウェア・オペレーター・タイリング戦略を備えており、深さ方向の畳み込みに対するパッキング密度を向上させる。
SOTA HEベースの2PCフレームワーク(例えばCrypTFlow2、Iron、Cheetah)と比較して、Falconは演算子レベルでそれぞれ15.6x、5.1x、1.8x以上のレイテンシ削減を実現している。
一方、ネットワークレベルでは、FalconはCIFAR-100とTinyImagenetデータセットでCheetahよりも1.4%と4.2%の精度向上を実現している。
関連論文リスト
- EQO: Exploring Ultra-Efficient Private Inference with Winograd-Based Protocol and Quantization Co-Optimization [3.1330492824737055]
セキュアな双方向計算(2PC)に基づくプライベート畳み込みニューラルネットワーク(CNN)の推論は、高い通信と遅延オーバーヘッドに悩まされる。
本稿では,CNNと2PCプロトコルを協調的に最適化する量子化2PC推論フレームワークであるEQOを提案する。
広範な実験により、EQOは1.7x、3.6x、6.3xの通信削減を1.29%、1.16%、1.29%の精度で実証した。
論文 参考訳(メタデータ) (2024-04-15T01:41:18Z) - HEQuant: Marrying Homomorphic Encryption and Quantization for
Communication-Efficient Private Inference [2.498379184732383]
HEベースのプロトコルに対して,低精度量子化を意識した最適化を実現するHEQuantを提案する。
CrypTFlow2、Cheetah、Ironなど、従来のHEベースのプロトコルと比較して、HEQuantは3.5sim 23.4times$通信削減を実現している。
論文 参考訳(メタデータ) (2024-01-29T08:59:05Z) - BiFSMNv2: Pushing Binary Neural Networks for Keyword Spotting to
Real-Network Performance [54.214426436283134]
Deep-FSMNのようなディープニューラルネットワークはキーワードスポッティング(KWS)アプリケーションのために広く研究されている。
我々は、KWS、すなわちBiFSMNv2のための強力で効率的なバイナリニューラルネットワークを提示し、それを実ネットワーク精度のパフォーマンスにプッシュする。
小型アーキテクチャと最適化されたハードウェアカーネルの利点により、BiFSMNv2は25.1倍のスピードアップと20.2倍のストレージ節約を実現できる。
論文 参考訳(メタデータ) (2022-11-13T18:31:45Z) - BiFSMN: Binary Neural Network for Keyword Spotting [47.46397208920726]
BiFSMNは、KWSのための正確かつ極効率のバイナリニューラルネットワークである。
実世界のエッジハードウェアにおいて,BiFSMNは22.3倍の高速化と15.5倍のストレージ節約を実現可能であることを示す。
論文 参考訳(メタデータ) (2022-02-14T05:16:53Z) - HANT: Hardware-Aware Network Transformation [82.54824188745887]
ハードウェア・アウェア・ネットワーク・トランスフォーメーション(HANT)を提案する。
HANTは、ニューラルネットワーク検索のようなアプローチを使用して、非効率な操作をより効率的な代替手段に置き換える。
EfficientNetファミリの高速化に関する我々の結果は、ImageNetデータセットのトップ1の精度で最大3.6倍、0.4%の低下でHANTがそれらを加速できることを示している。
論文 参考訳(メタデータ) (2021-07-12T18:46:34Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Towards Lossless Binary Convolutional Neural Networks Using Piecewise
Approximation [4.023728681102073]
CNNは算術演算の数とメモリストレージのサイズを大幅に減らすことができる。
しかし、単一のバイナリCNNと複数のバイナリCNNの精度劣化は、現代のアーキテクチャでは受け入れられない。
完全精度の重みとアクティベーションを近似することにより、精度の低下を低減できる複数のバイナリCNNに対するPiecewise Approximationスキームを提案する。
論文 参考訳(メタデータ) (2020-08-08T13:32:33Z) - Training Binary Neural Networks with Real-to-Binary Convolutions [52.91164959767517]
完全精度のネットワークのうち、数パーセント以内にバイナリネットワークをトレーニングする方法を示します。
我々は、最先端の精度をすでに達成している強力なベースラインを構築する方法を示す。
すべての改善をまとめると、提案したモデルは、ImageNet上で5%以上のトップ1精度で、現在の最先端の技術を上回ります。
論文 参考訳(メタデータ) (2020-03-25T17:54:38Z) - XSepConv: Extremely Separated Convolution [60.90871656244126]
極めて分離された畳み込みブロック(XSepConv)を提案する。
空間的に分離可能な畳み込みを奥行きの畳み込みに融合させ、大きなカーネルの計算コストとパラメータサイズの両方を削減する。
XSepConvは、大規模なカーネルサイズを持つバニラ奥行きの畳み込みの効率的な代替として設計されている。
論文 参考訳(メタデータ) (2020-02-27T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。