論文の概要: NASS: Optimizing Secure Inference via Neural Architecture Search
- arxiv url: http://arxiv.org/abs/2001.11854v3
- Date: Sun, 16 Feb 2020 10:54:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 12:49:13.343974
- Title: NASS: Optimizing Secure Inference via Neural Architecture Search
- Title(参考訳): NASS: ニューラルネットワークによるセキュア推論の最適化
- Authors: Song Bian, Weiwen Jiang, Qing Lu, Yiyu Shi, Takashi Sato
- Abstract要約: セキュア推論(SI)に特化して設計されたNNアーキテクチャを検索する統合フレームワークであるNASSを提案する。
CIFAR-10データセットでは,予測精度が81.6%から84.6%に向上し,推論ランタイムは2倍,通信帯域幅は1.9倍になった。
- 参考スコア(独自算出の注目度): 21.72469549507192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to increasing privacy concerns, neural network (NN) based secure
inference (SI) schemes that simultaneously hide the client inputs and server
models attract major research interests. While existing works focused on
developing secure protocols for NN-based SI, in this work, we take a different
approach. We propose NASS, an integrated framework to search for tailored NN
architectures designed specifically for SI. In particular, we propose to model
cryptographic protocols as design elements with associated reward functions.
The characterized models are then adopted in a joint optimization with
predicted hyperparameters in identifying the best NN architectures that balance
prediction accuracy and execution efficiency. In the experiment, it is
demonstrated that we can achieve the best of both worlds by using NASS, where
the prediction accuracy can be improved from 81.6% to 84.6%, while the
inference runtime is reduced by 2x and communication bandwidth by 1.9x on the
CIFAR-10 dataset.
- Abstract(参考訳): プライバシー上の懸念が高まっているため、クライアント入力とサーバモデルを同時に隠蔽するニューラルネットワーク(NN)ベースのセキュア推論(SI)スキームが大きな研究関心を集めている。
既存の研究はNNベースのSIのためのセキュアなプロトコルの開発に重点を置いているが、この作業では別のアプローチをとっている。
我々は、SI用に特別に設計されたNNアーキテクチャを検索する統合フレームワークNASSを提案する。
特に,関連する報酬機能を持つ設計要素として暗号プロトコルをモデル化することを提案する。
特徴的モデルは、予測精度と実行効率のバランスをとる最高のNNアーキテクチャを特定するために、予測ハイパーパラメータと共同最適化される。
実験では、予測精度が81.6%から84.6%に向上し、推論ランタイムは2倍、通信帯域幅はCIFAR-10データセットの1.9倍に削減できるNASSを用いて、両方の世界のベストを達成できることを示した。
関連論文リスト
- Neural Architecture Search using Particle Swarm and Ant Colony
Optimization [0.0]
本稿では,OpenNASのSwarm Intelligence (SI)コンポーネントを用いたCNNのトレーニングと最適化に焦点を当てる。
画像の分類において,OpenNAS(Neural Architecture Search)のオープンソースツールを統合するシステムを開発した。
論文 参考訳(メタデータ) (2024-03-06T15:23:26Z) - SONATA: Self-adaptive Evolutionary Framework for Hardware-aware Neural
Architecture Search [0.7646713951724011]
HW-Aware Neural Architecture Search (HW-Aware NAS)は、NNの設計を自動化する魅力的な戦略である。
HW対応NASのための自己適応型進化アルゴリズムであるSONATAを提案する。
本手法は,NN設計パラメータの学習的重要性に導かれる適応的進化演算子を利用する。
論文 参考訳(メタデータ) (2024-02-20T18:15:11Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - DCP-NAS: Discrepant Child-Parent Neural Architecture Search for 1-bit
CNNs [53.82853297675979]
バイナリ重みとアクティベーションを備えた1ビット畳み込みニューラルネットワーク(CNN)は、リソース制限された組み込みデバイスの可能性を示している。
自然なアプローチの1つは、NASの計算とメモリコストを削減するために1ビットCNNを使用することである。
本稿では,1ビットCNNを効率的に探索するためにDCP-NAS(Disrepant Child-Parent Neural Architecture Search)を提案する。
論文 参考訳(メタデータ) (2023-06-27T11:28:29Z) - DiffusionNAG: Predictor-guided Neural Architecture Generation with Diffusion Models [56.584561770857306]
本研究では拡散モデルに基づく新しい条件付きニューラルネットワーク生成(NAG)フレームワークDiffusionNAGを提案する。
具体的には、ニューラルネットワークを有向グラフとみなし、それらを生成するためのグラフ拡散モデルを提案する。
本研究では,2つの予測型NAS(Transferable NAS)とベイズ最適化(BO)に基づくNAS(Bayesian Optimization)の2つのシナリオにおいて,DiffusionNAGの有効性を検証する。
BOベースのアルゴリズムに統合されると、DiffusionNAGは既存のBOベースのNASアプローチ、特にImageNet 1Kデータセット上の大規模なMobileNetV3検索スペースよりも優れている。
論文 参考訳(メタデータ) (2023-05-26T13:58:18Z) - HQNAS: Auto CNN deployment framework for joint quantization and
architecture search [30.45926484863791]
ハードウェア対応量子化ニューラルネットワーク探索(HQNAS)と呼ばれる新しいニューラルネットワーク設計フレームワークを提案する。
CIFAR10の優れたNNポリシーを見つけるのにわずか4時間しかかからない。
また、Imagenetで同等のモデルを生成するのに10パーセントのGPU時間しかかからない。
論文 参考訳(メタデータ) (2022-10-16T08:32:18Z) - RoHNAS: A Neural Architecture Search Framework with Conjoint
Optimization for Adversarial Robustness and Hardware Efficiency of
Convolutional and Capsule Networks [10.946374356026679]
RoHNASは、Deep Neural Network(DNN)の対向ロバスト性とハードウェア効率を共同で最適化する新しいフレームワークである。
探索時間を短縮するため、RoHNASはNASフローで使用するデータセット毎に、逆摂動の適切な値を分析し、選択する。
論文 参考訳(メタデータ) (2022-10-11T09:14:56Z) - Neural Architecture Search of SPD Manifold Networks [79.45110063435617]
本研究では,Symmetric Positive Definite (SPD) 多様体ネットワークのニューラルアーキテクチャ探索(NAS)問題を提案する。
まず、効率的なSPDセル設計のために、幾何学的にリッチで多様なSPDニューラルアーキテクチャ探索空間を導入する。
我々は、SPDニューラルアーキテクチャ探索のための緩和された連続探索空間上で微分可能なNASアルゴリズムを利用する。
論文 参考訳(メタデータ) (2020-10-27T18:08:57Z) - BRP-NAS: Prediction-based NAS using GCNs [21.765796576990137]
BRP-NASは、グラフ畳み込みネットワーク(GCN)に基づく正確な性能予測によって実現された効率的なハードウェア対応NASである
提案手法はNAS-Bench-101とNAS-Bench-201の先行手法よりも優れていることを示す。
また、幅広いデバイスで動作するNAS-Bench-201モデルのレイテンシデータセットであるLatBenchもリリースしました。
論文 参考訳(メタデータ) (2020-07-16T21:58:43Z) - Accuracy Prediction with Non-neural Model for Neural Architecture Search [185.0651567642238]
精度予測に非神経モデルを用いる別の手法について検討する。
我々は、ニューラルネットワーク探索(NAS)の予測因子として、勾配向上決定木(GBDT)を活用する。
NASBench-101とImageNetの実験は、NASの予測器としてGBDTを使用することの有効性を示した。
論文 参考訳(メタデータ) (2020-07-09T13:28:49Z) - Hyperparameter Optimization in Neural Networks via Structured Sparse
Recovery [54.60327265077322]
スパースリカバリ法のレンズを用いて,ニューラルネットワークの自動設計における2つの重要な問題について検討する。
本論文の前半では,HPOと構造的スパースリカバリの新たな接続を確立する。
本論文の第2部では,NASと構造的スパース回復の関連性を確立する。
論文 参考訳(メタデータ) (2020-07-07T00:57:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。