論文の概要: Secure Transformer Inference Protocol
- arxiv url: http://arxiv.org/abs/2312.00025v2
- Date: Wed, 8 May 2024 02:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-09 19:00:52.757820
- Title: Secure Transformer Inference Protocol
- Title(参考訳): セキュアトランスフォーマー推論プロトコル
- Authors: Mu Yuan, Lan Zhang, Xiang-Yang Li,
- Abstract要約: ChatGPTなどのTransformerベースのサービスでは、モデルパラメータとユーザデータのセキュリティが重要になる。
セキュアな双方向プロトコルの最近の進歩は、Transformerモデルを提供する際のセキュリティ上の懸念に対処している。
推測精度を損なうことなくセキュアなトランスフォーマー推論プロトコルSTIPを提案する。
- 参考スコア(独自算出の注目度): 15.610303095235372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Security of model parameters and user data is critical for Transformer-based services, such as ChatGPT. While recent strides in secure two-party protocols have successfully addressed security concerns in serving Transformer models, their adoption is practically infeasible due to the prohibitive cryptographic overheads involved. Drawing insights from our hands-on experience in developing two real-world Transformer-based services, we identify the inherent efficiency bottleneck in the two-party assumption. To overcome this limitation, we propose a novel three-party threat model. Within this framework, we design a semi-symmetric permutation-based protection scheme and present STIP, the first secure Transformer inference protocol without any inference accuracy loss. Experiments on representative Transformer models in real systems show that STIP has practical security and outperforms state-of-the-art secure two-party protocols in efficiency by millions of times.
- Abstract(参考訳): ChatGPTなどのTransformerベースのサービスでは、モデルパラメータとユーザデータのセキュリティが重要になる。
セキュアな双方向プロトコルの最近の進歩は、Transformerモデルを提供する際のセキュリティ上の懸念に対処することに成功したが、暗号のオーバーヘッドが禁止されているため、その採用は事実上不可能である。
2つの実世界のTransformerベースのサービスを開発する際の実践的な経験から洞察を得た上で、我々は、2つの前提に固有の効率ボトルネックを特定した。
この制限を克服するため、我々は新しい三者脅威モデルを提案する。
本フレームワークでは,半対称な置換に基づく保護方式を設計し,推論精度を損なうことなく,最初のセキュアトランスフォーマー推論プロトコルであるSTIPを提示する。
実システムにおける代表的なTransformerモデルの実験では、STIPは実用的セキュリティを持ち、最先端のセキュアな2つのプロトコルを数百万倍の効率で上回っている。
関連論文リスト
- Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - LogShield: A Transformer-based APT Detection System Leveraging
Self-Attention [2.1256044139613772]
本稿では,変圧器における自己注意力を利用したAPT攻撃パターンの検出を目的としたフレームワークであるLogShieldを提案する。
カスタマイズした埋め込みレイヤを組み込んで、前兆グラフから派生したイベントシーケンスのコンテキストを効果的にキャプチャします。
LSTMモデルではF1スコアが96%,94%を上回っ,F1スコアが98%,95%であった。
論文 参考訳(メタデータ) (2023-11-09T20:43:15Z) - The Efficacy of Transformer-based Adversarial Attacks in Security
Domains [0.7156877824959499]
システムディフェンダーの対向サンプルに対する変換器のロバスト性およびシステムアタッカーに対する対向強度を評価する。
我々の研究は、セキュリティ領域におけるモデルの攻撃と防御のためにトランスフォーマーアーキテクチャを研究することの重要性を強調している。
論文 参考訳(メタデータ) (2023-10-17T21:45:23Z) - Exploring the Benefits of Differentially Private Pre-training and
Parameter-Efficient Fine-tuning for Table Transformers [56.00476706550681]
Table Transformer(TabTransformer)は最先端のニューラルネットワークモデルであり、差分プライバシ(DP)はデータのプライバシを確保する上で不可欠なコンポーネントである。
本稿では,これら2つの側面を組み合わせ,伝達学習のシナリオで組み合わせることのメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-12T19:08:26Z) - East: Efficient and Accurate Secure Transformer Framework for Inference [7.887332345182056]
本稿では,効率的なセキュアトランスフォーマー推論を実現するためのフレームワークemphEastを提案する。
Ironと比較して、1.2$times$ローランタイム内で、約1.8$times$ロー通信を実現しています。
論文 参考訳(メタデータ) (2023-08-19T06:26:14Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Safe Self-Refinement for Transformer-based Domain Adaptation [73.8480218879]
Unsupervised Domain Adaptation (UDA)は、ラベル豊富なソースドメインを活用して、関連するラベルのないターゲットドメイン上のタスクを解決することを目的としている。
特にソースとターゲットドメインの間に大きなドメインギャップがある場合、これは難しい問題です。
SSRT (Safe Self-Refinement for Transformer-based domain adaptation) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-16T00:15:46Z) - Diverse Part Discovery: Occluded Person Re-identification with
Part-Aware Transformer [95.02123369512384]
蓄積された人物の再識別(Re-ID)は、様々な障害や人によってしばしば妨げられるため、困難な作業である。
本稿では,多種多様な部分発見を通して,隠蔽されたRe-IDのための新しいエンドツーエンドのPart-Aware Transformer(PAT)を提案する。
論文 参考訳(メタデータ) (2021-06-08T04:29:07Z) - TSS: Transformation-Specific Smoothing for Robustness Certification [37.87602431929278]
動機付けられた敵は、セマンティックトランスフォーメーションを使用してテストデータを摂動することで、機械学習システムを誤解させる可能性がある。
TSS -- 汎用の敵対的セマンティックトランスフォーメーションに対して、MLの堅牢性を証明するための統一的なフレームワークを提供する。
TSSは大規模なImageNetデータセット上で、非自明な証明された堅牢性を実現する最初のアプローチであることを示す。
論文 参考訳(メタデータ) (2020-02-27T19:19:32Z) - Robustness Verification for Transformers [165.25112192811764]
我々はトランスフォーマーのための最初のロバスト性検証アルゴリズムを開発した。
提案手法で計算したロバスト性境界は, 素粒子間境界伝播法で計算したロバスト性境界よりもかなり厳密である。
これらの境界はまた、感情分析における異なる単語の重要性を常に反映しているトランスフォーマーの解釈にも光を当てている。
論文 参考訳(メタデータ) (2020-02-16T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。