論文の概要: Secure Transformer Inference
- arxiv url: http://arxiv.org/abs/2312.00025v1
- Date: Tue, 14 Nov 2023 14:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 04:04:35.031000
- Title: Secure Transformer Inference
- Title(参考訳): セキュアトランスフォーマー推論
- Authors: Mu Yuan, Lan Zhang, Xiang-Yang Li
- Abstract要約: 推論フェーズにおいて,トランスフォーマーパラメータとユーザデータの両方を保護できる3つのプロトコルを提案する。
我々のプロトコルである Secure Transformer Inference Protocol (STIP) はChatGPT のような現実世界のサービスに適用できる。
- 参考スコア(独自算出の注目度): 17.544416294542895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a three-party protocol that can protect both Transformer
parameters and user data during the inference phase. For each feedforward
inference process, our protocol only introduces permutation computation of
input and output data on the user side. Our protocol, Secure Transformer
Inference Protocol (STIP), can be applied to real-world services like ChatGPT.
- Abstract(参考訳): 推論フェーズにおいてTransformerパラメータとユーザデータの両方を保護できる3つのプロトコルを提案する。
本プロトコルでは,各フィードフォワード推論プロセスに対して,ユーザ側の入力および出力データの置換計算のみを導入する。
我々のプロトコルである Secure Transformer Inference Protocol (STIP) はChatGPT のような現実世界のサービスに適用できる。
関連論文リスト
- Trustformer: A Trusted Federated Transformer [0.24578723416255746]
トランスフォーマーモデルは、大きな言語モデル(LLM)の台頭を促している。
フェデレートラーニング(FL)のようなプライバシ保護技術は潜在的な解決策を提供するが、実用的な制限はトランスフォーマートレーニングの有効性を妨げている。
本稿では,競争力を維持しつつ通信オーバヘッドを低減する新しいFL法を提案する。
論文 参考訳(メタデータ) (2025-01-20T19:38:50Z) - Centaur: Bridging the Impossible Trinity of Privacy, Efficiency, and Performance in Privacy-Preserving Transformer Inference [36.22164026463692]
現在のプライバシー保護トランスフォーマー推論(PPTI)フレームワークは、プライバシ、効率、パフォーマンスの「不可能なトリニティ」に苦慮している。
モデルパラメータをランダムな置換とSMPCによる推論データで保護する新しいハイブリッドPPTIフレームワークであるCentaurを提案する。
性能と効率の面では、Centaurは平文推論と同じ性能を維持しているだけでなく、推論速度を5.0-30.4$倍改善している。
論文 参考訳(メタデータ) (2024-12-14T02:50:30Z) - Securing Legacy Communication Networks via Authenticated Cyclic Redundancy Integrity Check [98.34702864029796]
認証サイクル冗長性チェック(ACRIC)を提案する。
ACRICは、追加のハードウェアを必要とせずに後方互換性を保持し、プロトコルに依存しない。
ACRICは最小送信オーバーヘッド(1ms)で堅牢なセキュリティを提供する。
論文 参考訳(メタデータ) (2024-11-21T18:26:05Z) - A Survey and Comparative Analysis of Security Properties of CAN Authentication Protocols [92.81385447582882]
コントロールエリアネットワーク(CAN)バスは車内通信を本質的に安全でないものにしている。
本稿では,CANバスにおける15の認証プロトコルをレビューし,比較する。
実装の容易性に寄与する本質的な運用基準に基づくプロトコルの評価を行う。
論文 参考訳(メタデータ) (2024-01-19T14:52:04Z) - The Efficacy of Transformer-based Adversarial Attacks in Security
Domains [0.7156877824959499]
システムディフェンダーの対向サンプルに対する変換器のロバスト性およびシステムアタッカーに対する対向強度を評価する。
我々の研究は、セキュリティ領域におけるモデルの攻撃と防御のためにトランスフォーマーアーキテクチャを研究することの重要性を強調している。
論文 参考訳(メタデータ) (2023-10-17T21:45:23Z) - Exploring the Benefits of Differentially Private Pre-training and
Parameter-Efficient Fine-tuning for Table Transformers [56.00476706550681]
Table Transformer(TabTransformer)は最先端のニューラルネットワークモデルであり、差分プライバシ(DP)はデータのプライバシを確保する上で不可欠なコンポーネントである。
本稿では,これら2つの側面を組み合わせ,伝達学習のシナリオで組み合わせることのメリットについて考察する。
論文 参考訳(メタデータ) (2023-09-12T19:08:26Z) - East: Efficient and Accurate Secure Transformer Framework for Inference [7.887332345182056]
本稿では,効率的なセキュアトランスフォーマー推論を実現するためのフレームワークemphEastを提案する。
Ironと比較して、1.2$times$ローランタイム内で、約1.8$times$ロー通信を実現しています。
論文 参考訳(メタデータ) (2023-08-19T06:26:14Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Safe Self-Refinement for Transformer-based Domain Adaptation [73.8480218879]
Unsupervised Domain Adaptation (UDA)は、ラベル豊富なソースドメインを活用して、関連するラベルのないターゲットドメイン上のタスクを解決することを目的としている。
特にソースとターゲットドメインの間に大きなドメインギャップがある場合、これは難しい問題です。
SSRT (Safe Self-Refinement for Transformer-based domain adaptation) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-16T00:15:46Z) - Diverse Part Discovery: Occluded Person Re-identification with
Part-Aware Transformer [95.02123369512384]
蓄積された人物の再識別(Re-ID)は、様々な障害や人によってしばしば妨げられるため、困難な作業である。
本稿では,多種多様な部分発見を通して,隠蔽されたRe-IDのための新しいエンドツーエンドのPart-Aware Transformer(PAT)を提案する。
論文 参考訳(メタデータ) (2021-06-08T04:29:07Z) - Robustness Verification for Transformers [165.25112192811764]
我々はトランスフォーマーのための最初のロバスト性検証アルゴリズムを開発した。
提案手法で計算したロバスト性境界は, 素粒子間境界伝播法で計算したロバスト性境界よりもかなり厳密である。
これらの境界はまた、感情分析における異なる単語の重要性を常に反映しているトランスフォーマーの解釈にも光を当てている。
論文 参考訳(メタデータ) (2020-02-16T17:16:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。