論文の概要: Tetrad: Actively Secure 4PC for Secure Training and Inference
- arxiv url: http://arxiv.org/abs/2106.02850v1
- Date: Sat, 5 Jun 2021 09:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-14 05:33:42.230956
- Title: Tetrad: Actively Secure 4PC for Secure Training and Inference
- Title(参考訳): Tetrad: セキュアトレーニングと推論のためのアクティブなセキュアな4PC
- Authors: Nishat Koti, Arpita Patra, Rahul Rachuri, Ajith Suresh
- Abstract要約: Tetradは、プライバシ保護機械学習のための混合プロトコルフレームワークである。
公正な乗算プロトコルでは、トライデントの最先端プロトコルよりも改善された5つのリング要素のみを通信する必要がある。
Fairフレームワークは、LeNetやVGG16といったディープニューラルネットワークのベンチマークでテストされている。
- 参考スコア(独自算出の注目度): 14.318471874603212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we design an efficient mixed-protocol framework, Tetrad, with
applications to privacy-preserving machine learning. It is designed for the
four-party setting with at most one active corruption and supports rings.
Our fair multiplication protocol requires communicating only 5 ring elements
improving over the state-of-the-art protocol of Trident (Chaudhari et al.
NDSS'20). The technical highlights of Tetrad include efficient (a) truncation
without any overhead, (b) multi-input multiplication protocols for arithmetic
and boolean worlds, (c) garbled-world, tailor-made for the mixed-protocol
framework, and (d) conversion mechanisms to switch between the computation
styles. The fair framework is also extended to provide robustness without
inflating the costs.
The competence of Tetrad is tested with benchmarks for deep neural networks
such as LeNet and VGG16 and support vector machines. One variant of our
framework aims at minimizing the execution time, while the other focuses on the
monetary cost. We observe improvements up to 6x over Trident across these
parameters.
- Abstract(参考訳): 本研究では,プライバシ保護機械学習への応用を目的とした,効率的な混合プロトコルフレームワークTetradを設計する。
これは、少なくとも1つのアクティブな腐敗とリングをサポートする4つのパーティーのセッティングのために設計されている。
我々の公正な乗算プロトコルは、トライデントの最先端プロトコル(Chaudhari et al)で改善された5つのリング要素のみを通信する必要がある。
NDSS'20)。
Tetradの技術的ハイライトは、オーバーヘッドのない効率的な (a) トランケーション、(b) 算術とブール世界のマルチインプット乗算プロトコル、(c) garbled-world、混合プロトコールフレームワーク用のテーラーメイド、(d) 計算スタイルを切り替えるための変換機構である。
公正なフレームワークも拡張され、コストを膨らませることなく堅牢性を提供する。
tetradの能力は、lenetやvgg16といったディープニューラルネットワークやサポートベクターマシンのベンチマークでテストされている。
私たちのフレームワークの1つの変種は、実行時間を最小化することを目的としています。
これらのパラメータに対するtridentの最大6倍の改善を観察した。
関連論文リスト
- COMET: Towards Partical W4A4KV4 LLMs Serving [37.30529940231099]
量子化は、端末デバイスやクラウドデータセンターで大規模言語モデル(LLM)を提供するオーバーヘッドを低減するための圧縮技術である。
本稿では,ほとんどのアクティベーションを4ビットに圧縮し,精度損失を無視できる新しい混合精度量子化アルゴリズム(FMPQ)を提案する。
我々は、最適化されたW4Axカーネルを推論フレームワークCOMETに統合し、人気のあるLLMをサポートするための効率的な管理を提供する。
論文 参考訳(メタデータ) (2024-10-16T02:16:53Z) - 4D ASR: Joint Beam Search Integrating CTC, Attention, Transducer, and Mask Predict Decoders [53.297697898510194]
我々は、4つのデコーダが同一のエンコーダを共有する共同モデリング手法を提案し、これを4Dモデリングと呼ぶ。
4Dモデルを効率的に訓練するために,マルチタスク学習を安定化させる2段階のトレーニング戦略を導入する。
さらに,3つのデコーダを組み合わせることで,新しい1パスビーム探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-05T05:18:20Z) - HEQuant: Marrying Homomorphic Encryption and Quantization for
Communication-Efficient Private Inference [2.498379184732383]
HEベースのプロトコルに対して,低精度量子化を意識した最適化を実現するHEQuantを提案する。
CrypTFlow2、Cheetah、Ironなど、従来のHEベースのプロトコルと比較して、HEQuantは3.5sim 23.4times$通信削減を実現している。
論文 参考訳(メタデータ) (2024-01-29T08:59:05Z) - QUIK: Towards End-to-End 4-Bit Inference on Generative Large Language
Models [57.04178959678024]
重み付けとアクティベーションの両方を4ビットにキャストすることで、大きな生成モデルに対する推論計算の大部分が実行可能であることを示す。
これをQUIKと呼ばれるハイブリッド量子化戦略により実現し、重みとアクティベーションの大部分を4ビットに圧縮する。
我々は、QUIKフォーマットを高効率なレイヤワイドランタイムに適合させるGPUカーネルを提供し、これにより、エンドツーエンドのスループットが3.4倍に向上する。
論文 参考訳(メタデータ) (2023-10-13T17:15:05Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - High-Throughput Secure Multiparty Computation with an Honest Majority in Various Network Settings [16.242352823823218]
本稿では,セキュアな3次元計算(3PC)と悪意のある4次元計算(4PC)のためのリング上の新しいプロトコルを提案する。
我々のプロトコルは、パフォーマンスを著しく低下させることなく、パーティ間の複数の弱いネットワークリンクを任意に許容する。
これにより、関連する作業に比べてゲート当たりの基本命令の最大半分を必要とすることで、計算の複雑さを著しく低減する。
論文 参考訳(メタデータ) (2022-06-08T09:46:37Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - HAWQV3: Dyadic Neural Network Quantization [73.11579145354801]
現在の低精度量子化アルゴリズムは、浮動小数点から量子化された整数値への変換の隠れコストを持つことが多い。
HAWQV3は、新しい混合精度整数のみの量子化フレームワークである。
論文 参考訳(メタデータ) (2020-11-20T23:51:43Z) - SWIFT: Super-fast and Robust Privacy-Preserving Machine Learning [16.17280000789628]
本稿では,SOC設定におけるMLアルゴリズムの頑健なフレームワークであるSWIFTを提案する。
SWIFTは、いかなる敵対的行動にも拘わらず、ユーザに出力配信を保証する。
一般的なMLアルゴリズムをベンチマークすることで,フレームワークの実践的妥当性を実証する。
論文 参考訳(メタデータ) (2020-05-20T18:20:23Z) - XSepConv: Extremely Separated Convolution [60.90871656244126]
極めて分離された畳み込みブロック(XSepConv)を提案する。
空間的に分離可能な畳み込みを奥行きの畳み込みに融合させ、大きなカーネルの計算コストとパラメータサイズの両方を削減する。
XSepConvは、大規模なカーネルサイズを持つバニラ奥行きの畳み込みの効率的な代替として設計されている。
論文 参考訳(メタデータ) (2020-02-27T11:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。