論文の概要: Securing Transformer-based AI Execution via Unified TEE and Crypto-protected Accelerators
- arxiv url: http://arxiv.org/abs/2507.03278v1
- Date: Fri, 04 Jul 2025 03:52:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.651049
- Title: Securing Transformer-based AI Execution via Unified TEE and Crypto-protected Accelerators
- Title(参考訳): 統一型TEEと暗号保護型加速器によるトランスフォーマーベースのAI実行のセキュア化
- Authors: Jiaqi Xue, Yifei Zhao, Mengxin Zheng, Xun Chen, Fan Yao, Yan Solihin, Qian Lou,
- Abstract要約: マシンラーニングは信頼できないクラウドインフラストラクチャ上で動作し、データとモデルを潜在的な侵害に晒す。
信頼された実行環境(TEE)内で完全にモデル推論を実行すると、非自明なスローダウンが発生する。
異種TEEおよびアクセラレータシステムにおけるセキュアトランスフォーマー推論を実現するフレームワークであるTwinShieldを提案する。
- 参考スコア(独自算出の注目度): 24.119002759815988
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advances in Transformer models, e.g., large language models (LLMs), have brought tremendous breakthroughs in various artificial intelligence (AI) tasks, leading to their wide applications in many security-critical domains. Due to their unprecedented scale and prohibitively high development cost, these models have become highly valuable intellectual property for AI stakeholders and are increasingly deployed via machine learning as a service (MLaaS). However, MLaaS often runs on untrusted cloud infrastructure, exposing data and models to potential breaches. Mainstream protection mechanisms leverage trusted execution environments (TEEs) where confidentiality and integrity for secretive data are shielded using hardware-based encryption and integrity checking. Unfortunately, running model inference entirely within TEEs is subject to non-trivial slowdown, which is further exacerbated in LLMs due to the substantial computation and memory footprint involved. Recent studies reveal that the hybrid TEE-based scheme offloading partial model inference operations to the untrusted accelerators (e.g., GPU) is a promising solution. However, prior offloading schemes fail to ensure dual protection of data and model in Transformer inference, as they cannot securely offload critical operations, i.e., Attention and SoftMax, forcing these computations to remain confined within TEEs. To address these challenges, we propose TwinShield, a framework enabling secure Transformer inference in heterogeneous TEE and accelerator systems with dual protection for both model and data. TwinShield offloads ~87% of computation to GPUs and delivers 4.0x - 6.1x speedups over previous approaches across various Transformer models.
- Abstract(参考訳): トランスフォーマーモデル(例えば、大規模言語モデル(LLM))の最近の進歩は、さまざまな人工知能(AI)タスクに大きなブレークスルーをもたらし、多くのセキュリティクリティカルなドメインでその幅広い応用に繋がった。
その前代未聞の規模と極めて高い開発コストのため、これらのモデルはAIステークホルダーにとって非常に価値のある知的財産となり、マシンラーニング・アズ・ア・サービス(MLaaS)を通じてますますデプロイされるようになっている。
しかし、MLaaSは信頼できないクラウドインフラストラクチャ上で動作し、データやモデルを潜在的に侵入する可能性がある。
メインストリーム保護メカニズムは、ハードウェアベースの暗号化と整合性チェックによって機密データの機密性と整合性を保護する、信頼できる実行環境(TEE)を活用する。
残念ながら、モデル推論をTEE内で完全に実行すると、非自明なスローダウンが発生し、計算量やメモリフットプリントがかなり必要となるため、LLMではさらに悪化する。
近年の研究では、部分モデル推論操作を非信頼なアクセラレータ(例えばGPU)にオフロードするTEEベースのハイブリッドスキームが有望なソリューションであることが示されている。
しかし、事前のオフロードスキームはトランスフォーマー推論におけるデータとモデルの二重保護を保証することができず、重要な操作、すなわち注意とソフトマックスを安全にオフロードできないため、これらの計算はTEE内に留まる。
これらの課題に対処するために、TwinShieldを提案する。TwinShieldは、異種TEEとアクセラレータシステムにおける安全なトランスフォーマー推論を可能にするフレームワークで、モデルとデータの両方を二重に保護する。
TwinShieldはGPUへの計算の87%をオフロードし、様々なTransformerモデルにまたがる以前のアプローチよりも4.0倍から6.1倍のスピードアップを提供する。
関連論文リスト
- MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - TensorShield: Safeguarding On-Device Inference by Shielding Critical DNN Tensors with TEE [15.680713503694951]
既存の知恵は信頼された実行環境(TEE)内にモデルをデプロイする
本論文は,MS と MIA を完全に防御しながらモデルの部分テンソルを遮蔽する,最初の効率的なデバイス上の推論作業であるShield とのギャップを埋めるものである。
論文 参考訳(メタデータ) (2025-05-28T18:00:24Z) - T2V-OptJail: Discrete Prompt Optimization for Text-to-Video Jailbreak Attacks [67.91652526657599]
我々は、T2Vジェイルブレイク攻撃を離散最適化問題として定式化し、T2V-OptJailと呼ばれる共同目的ベース最適化フレームワークを提案する。
いくつかのT2Vモデルに対して大規模な実験を行い、オープンソースモデルと実際の商用クローズドソースモデルの両方をカバーする。
提案手法は,攻撃成功率の観点から既存手法よりも11.4%,10.0%向上する。
論文 参考訳(メタデータ) (2025-05-10T16:04:52Z) - T2VShield: Model-Agnostic Jailbreak Defense for Text-to-Video Models [88.63040835652902]
テキストからビデオモデルへの攻撃はジェイルブレイク攻撃に弱いため、特別な方法で安全メカニズムをバイパスし、有害または安全でないコンテンツの生成につながる。
我々は、ジェイルブレイクの脅威からテキストからビデオモデルを守るために設計された包括的でモデルに依存しない防衛フレームワークであるT2VShieldを提案する。
本手法は,既存の防御の限界を特定するために,入力,モデル,出力の段階を体系的に解析する。
論文 参考訳(メタデータ) (2025-04-22T01:18:42Z) - Dual Defense: Enhancing Privacy and Mitigating Poisoning Attacks in Federated Learning [10.102889257118145]
フェデレート・ラーニング(FL)は、本質的にプライバシー侵害や毒殺攻撃の影響を受けやすい。
本稿では,DDF(Dual Defense Federated Learning)フレームワークを紹介する。
DDFedは、新たな参加者の役割を導入したり、既存のFLトポロジを破壊したりすることなく、プライバシー保護を強化し、毒殺攻撃を緩和する。
論文 参考訳(メタデータ) (2025-02-08T12:28:20Z) - A performance analysis of VM-based Trusted Execution Environments for Confidential Federated Learning [0.0]
Federated Learning(FL)は、最近のプライバシー問題に対処する効果的な方法として登場した分散機械学習アプローチである。
FLだけではモデルやデータ中毒、推論攻撃といった脆弱性に悩まされているため、FLは追加のセキュリティ対策の必要性を導入している。
CC(Confidential Computing)は、ハードウェアベースの信頼できる実行環境(TEE)を活用することで、MLモデルとデータの機密性と整合性を保護するパラダイムである。
論文 参考訳(メタデータ) (2025-01-20T15:58:48Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Robust Synthetic Data-Driven Detection of Living-Off-the-Land Reverse Shells [14.710331873072146]
LOTL(Living-off-the-land)技術は、セキュリティ運用において大きな課題となる。
セキュリティ情報およびイベント管理(SIEM)ソリューションとして,サイバー防衛システムのための堅牢な拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T13:49:23Z) - Secure Instruction and Data-Level Information Flow Tracking Model for RISC-V [0.0]
不正アクセス、障害注入、およびプライバシー侵害は、信頼できないアクターによる潜在的な脅威である。
本稿では,実行時セキュリティがシステム完全性を保護するために,IFT(Information Flow Tracking)技術を提案する。
本研究では,ハードウェアベース IFT 技術とゲートレベル IFT (GLIFT) 技術を統合したマルチレベル IFT モデルを提案する。
論文 参考訳(メタデータ) (2023-11-17T02:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。