論文の概要: GuardNN: Secure Accelerator Architecture for Privacy-Preserving Deep
Learning
- arxiv url: http://arxiv.org/abs/2008.11632v2
- Date: Wed, 25 May 2022 17:59:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 22:32:27.605634
- Title: GuardNN: Secure Accelerator Architecture for Privacy-Preserving Deep
Learning
- Title(参考訳): GuardNN: プライバシ保護によるディープラーニングのためのセキュアなアクセラレータアーキテクチャ
- Authors: Weizhe Hua, Muhammad Umar, Zhiru Zhang, G. Edward Suh
- Abstract要約: GuardNNは、信頼できない環境であっても、ユーザデータとモデルパラメータに対するハードウェアベースの保護を提供する。
GuardNN命令セットの設計は、TCBを単にアクセラレータに還元し、ホストからの命令が信頼できない場合でも機密性保護を可能にする。
GuardNNはFPGA上でプロトタイプされており、推論の3%のパフォーマンスオーバーヘッドで効果的な機密性保護を実証している。
- 参考スコア(独自算出の注目度): 16.779628381836257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes GuardNN, a secure DNN accelerator that provides
hardware-based protection for user data and model parameters even in an
untrusted environment. GuardNN shows that the architecture and protection can
be customized for a specific application to provide strong confidentiality and
integrity guarantees with negligible overhead. The design of the GuardNN
instruction set reduces the TCB to just the accelerator and allows
confidentiality protection even when the instructions from a host cannot be
trusted. GuardNN minimizes the overhead of memory encryption and integrity
verification by customizing the off-chip memory protection for the known memory
access patterns of a DNN accelerator. GuardNN is prototyped on an FPGA,
demonstrating effective confidentiality protection with ~3% performance
overhead for inference.
- Abstract(参考訳): 本稿では,ユーザデータとモデルパラメータをハードウェアベースで保護するセキュアなDNNアクセラレータであるGuardNNを提案する。
GuardNNは、アーキテクチャとプロテクションを特定のアプリケーション用にカスタマイズして、無視可能なオーバーヘッドで強力な機密性と整合性を保証することを示している。
GuardNN命令セットの設計は、TCBを単にアクセラレータに還元し、ホストからの命令が信頼できない場合でも機密性保護を可能にする。
GuardNNは、DNNアクセラレータの既知のメモリアクセスパターンに対するオフチップメモリ保護をカスタマイズすることで、メモリ暗号化と整合性検証のオーバーヘッドを最小限にする。
GuardNNはFPGA上でプロトタイプされており、推論の3%のパフォーマンスオーバーヘッドで効果的な機密性保護を実証している。
関連論文リスト
- DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification [46.47446944218544]
本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-03-11T10:27:36Z) - MirrorNet: A TEE-Friendly Framework for Secure On-device DNN Inference [14.08010398777227]
ディープニューラルネットワーク(DNN)モデルは、リアルタイム推論のためのエッジデバイスで普及している。
既存の防御アプローチでは、モデルの機密性を完全に保護できないか、あるいは重大なレイテンシの問題が発生する。
本稿では、モデル機密性を保護するため、任意のDNNモデルに対してTEEフレンドリーな実装を生成するMirrorNetを提案する。
評価のために、MirrorNetは認証と違法使用の間に18.6%の精度差を達成でき、ハードウェアオーバーヘッドは0.99%に過ぎなかった。
論文 参考訳(メタデータ) (2023-11-16T01:21:19Z) - SemProtector: A Unified Framework for Semantic Protection in Deep Learning-based Semantic Communication Systems [51.97204522852634]
3つのセマンティック・プロテクション・モジュールを用いたオンラインセマンティック・コミュニケーション・システムの実現を目的とした統合されたフレームワークを提案する。
具体的には、これらの保護モジュールは、暗号化方法によって送信されるセマンティクスを暗号化し、摂動機構によって無線チャネルからのプライバシーリスクを軽減し、目的地で歪んだセマンティクスを校正することができる。
我々のフレームワークは、既存のオンラインSCシステムにおいて、上記3つのプラグイン可能なモジュールを動的に組み立てて、カスタマイズされたセマンティックプロテクション要件を満たすことを可能にする。
論文 参考訳(メタデータ) (2023-09-04T06:34:43Z) - Unveiling the Role of Message Passing in Dual-Privacy Preservation on
GNNs [7.626349365968476]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークなどのグラフ上で表現を学習するための強力なツールである。
プライバシを保存するGNNは、ノードやリンクのプライバシの保護に重点を置いて提案されている。
本稿では,ノードとリンクの両方を効果的に保護するプライバシー保護型GNNフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-25T17:46:43Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - BUNET: Blind Medical Image Segmentation Based on Secure UNET [24.374253627122467]
UNETアーキテクチャに基づくプライバシ保護型医用画像セグメンテーションを実装したセキュアプロトコルであるブラインドUNET(BUNET)を提案する。
BUNETでは、同相暗号やガーブロード回路(GC)などの暗号プリミティブを効率よく利用し、UNETニューラルアーキテクチャのための完全なセキュアなプロトコルを設計する。
本研究では, 既知精度の低下を伴うベースラインアーキテクチャにおいて, 最先端のセキュア推論技術と比較して最大14倍の推論時間短縮を実現することができることを示す。
論文 参考訳(メタデータ) (2020-07-14T07:05:23Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。