論文の概要: Tabula: Efficiently Computing Nonlinear Activation Functions for Secure
Neural Network Inference
- arxiv url: http://arxiv.org/abs/2203.02833v1
- Date: Sat, 5 Mar 2022 23:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 10:16:35.903779
- Title: Tabula: Efficiently Computing Nonlinear Activation Functions for Secure
Neural Network Inference
- Title(参考訳): Tabula: セキュアニューラルネットワーク推論のための非線形活性化関数の効率的な計算
- Authors: Maximilian Lam, Michael Mitzenmacher, Vijay Janapa Reddi, Gu-Yeon Wei,
David Brooks
- Abstract要約: Tabulaはセキュアなルックアップテーブルに基づくアルゴリズムで、ニューラルネットワークの非線形アクティベーション関数を効率よく、安全に、正確に計算する。
量子化された入力を持つガーブラー回路と比較すると、Tabulaは通信コストを35倍から70倍に削減し、100倍以上高速で、ストレージ容量に匹敵する。
- 参考スコア(独自算出の注目度): 19.274824377360517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multiparty computation approaches to secure neural network inference
traditionally rely on garbled circuits for securely executing nonlinear
activation functions. However, garbled circuits require excessive communication
between server and client, impose significant storage overheads, and incur
large runtime penalties. To eliminate these costs, we propose an alternative to
garbled circuits: Tabula, an algorithm based on secure lookup tables. Tabula
leverages neural networks' ability to be quantized and employs a secure lookup
table approach to efficiently, securely, and accurately compute neural network
nonlinear activation functions. Compared to garbled circuits with quantized
inputs, when computing individual nonlinear functions, our experiments show
Tabula uses between $35 \times$-$70 \times$ less communication, is over
$100\times$ faster, and uses a comparable amount of storage. This leads to
significant performance gains over garbled circuits with quantized inputs
during secure inference on neural networks: Tabula reduces overall
communication by up to $9 \times$ and achieves a speedup of up to $50 \times$,
while imposing comparable storage costs.
- Abstract(参考訳): セキュアなニューラルネットワーク推論へのマルチパーティ計算のアプローチは、伝統的に、非線形アクティベーション関数を安全に実行するためにガーブル回路に依存している。
しかし、ガーブロード回路はサーバとクライアント間の過剰な通信が必要であり、ストレージのオーバーヘッドが大きく、実行時のペナルティが大きい。
これらのコストを回避するため,セキュアなルックアップテーブルに基づくアルゴリズムであるTabulaを提案する。
Tabulaはニューラルネットワークの量子化能力を活用し、ニューラルネットワークの非線形アクティベーション関数を効率的に、安全に、正確に計算するためのセキュアなルックアップテーブルアプローチを採用している。
量子化された入力を持つgarbled回路と比較すると、個々の非線形関数を計算する場合、タブラは35 \times$-70 \times$ 通信を少なくし、100\times$ 以上高速で、同等のストレージを使用する。
これにより、ニューラルネットワークのセキュアな推論中に量子化された入力を持つgarbled回路よりも大幅にパフォーマンスが向上する。 tabulaは、全体の通信を最大9 \times$まで削減し、最大50 \times$まで高速化すると同時に、同等のストレージコストを実現している。
関連論文リスト
- Fast Flux-Activated Leakage Reduction for Superconducting Quantum
Circuits [84.60542868688235]
量子ビット実装のマルチレベル構造から生じる計算部分空間から漏れること。
パラメトリックフラックス変調を用いた超伝導量子ビットの資源効率向上のためのユニバーサルリーク低減ユニットを提案する。
繰り返し重み付け安定化器測定におけるリーク低減ユニットの使用により,検出されたエラーの総数を,スケーラブルな方法で削減できることを実証した。
論文 参考訳(メタデータ) (2023-09-13T16:21:32Z) - Circuit Cutting with Non-Maximally Entangled States [59.11160990637615]
分散量子コンピューティングは、複数のデバイスの計算能力を組み合わせて、個々のデバイスの限界を克服する。
回路切断技術は、古典的な通信を通じて量子計算の分配を可能にする。
量子テレポーテーション(quantum teleportation)は、指数的なショットの増加を伴わない量子計算の分布を可能にする。
非最大エンタングル量子ビット対を利用する新しい回路切断法を提案する。
論文 参考訳(メタデータ) (2023-06-21T08:03:34Z) - Low-Latency Online Multiplier with Reduced Activities and Minimized
Interconnect for Inner Product Arrays [0.8078491757252693]
本稿では,オンライン算術や左から右への算術に基づく低レイテンシ乗算器を提案する。
オンライン算術は、データ依存に関係なく連続した操作を重複させることができる。
オンラインアルゴリズムのシリアルな性質と、アクティブスライスの段階的な増減は、相互接続と信号のアクティビティを最小化する。
論文 参考訳(メタデータ) (2023-04-06T01:22:27Z) - Unsupervised Optimal Power Flow Using Graph Neural Networks [172.33624307594158]
グラフニューラルネットワークを用いて、要求された電力と対応するアロケーションとの間の非線形パラメトリゼーションを学習する。
シミュレーションを通して、この教師なし学習コンテキストにおけるGNNの使用は、標準解法に匹敵するソリューションにつながることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:30:09Z) - Erasure qubits: Overcoming the $T_1$ limit in superconducting circuits [105.54048699217668]
振幅減衰時間である$T_phi$は、超伝導回路の量子忠実度を制限する主要な要因として長い間存在してきた。
本稿では、振幅減衰誤差を検出して消去誤差に変換する方法で、量子ビットを設計し、従来のT_phi$制限を克服する手法を提案する。
論文 参考訳(メタデータ) (2022-08-10T17:39:21Z) - Circuit knitting with classical communication [1.8311368766923968]
サブ回路上で動作する非局所ゲートの準確率シミュレーションに基づく回路編み法について検討する。
我々は、2つの回路部品を接続する非局所CNOTゲートを含む回路に対して、古典的な情報交換が許された場合、シミュレーションオーバーヘッドを$O(9n)$から$O(4n)$に減らすことができることを示す。
論文 参考訳(メタデータ) (2022-04-29T18:00:11Z) - Multiplier with Reduced Activities and Minimized Interconnect for Inner
Product Arrays [0.8078491757252693]
本稿では,オンライン桁-シリアル算術に基づいて,アクティビティの削減と相互接続の最小化を図ったパイプライン乗算器を提案する。
8ドル、16ドル、24ドル、32ドルのビット精度で、提案された低消費電力パイプライン設計は、それぞれ38%ドルと44%ドルの電力と面積の削減を示す。
論文 参考訳(メタデータ) (2022-04-11T05:45:43Z) - ProgFed: Effective, Communication, and Computation Efficient Federated Learning by Progressive Training [65.68511423300812]
本稿では,効率的なフェデレート学習のためのプログレッシブトレーニングフレームワークであるProgFedを提案する。
ProgFedは計算と双方向通信のコストを本質的に低減し、最終モデルの強力な性能を維持している。
以上の結果から, ProgFed はフルモデルの標準トレーニングと同等の速度で収束することがわかった。
論文 参考訳(メタデータ) (2021-10-11T14:45:00Z) - Scaling the Convex Barrier with Sparse Dual Algorithms [141.4085318878354]
本稿では,ニューラルネットワークバウンダリングのための2つの新しい2重アルゴリズムを提案する。
どちらの方法も新しい緩和の強さを回復する: 厳密さと線形分離オラクル。
実行時間のほんの一部で、既製のソルバよりも優れた境界を得ることができます。
論文 参考訳(メタデータ) (2021-01-14T19:45:17Z) - TensorDash: Exploiting Sparsity to Accelerate Deep Neural Network
Training and Inference [3.238873941995477]
Dashは、データ並列MACユニットが入力オペランドストリームの空間性を活用するためのハードウェアレベルのテクニックである。
ディープラーニングのためのハードウェアアクセラレータを構成するために使用すると、Dashはトレーニングプロセスを高速化し、エネルギー効率も向上する。
論文 参考訳(メタデータ) (2020-09-01T23:39:35Z) - A sparse code increases the speed and efficiency of neuro-dynamic
programming for optimal control tasks with correlated inputs [0.0]
スパースコードは、ニューロダイナミックプログラミングで解決された最適な制御タスクにおいて、自然なイメージを表現するために使用される。
オーバーコンプリートスパース符号の2.25倍は、同じ入力を使用する完全スパース符号と比較して少なくとも2倍のメモリ容量を示す。
これはシーケンシャルラーニングにおいて、ネットワークに潜在的に多くの最適な制御タスクを格納するために使用される。
論文 参考訳(メタデータ) (2020-06-22T01:58:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。