論文の概要: A Unified Hardware-based Threat Detector for AI Accelerators
- arxiv url: http://arxiv.org/abs/2311.16684v1
- Date: Tue, 28 Nov 2023 10:55:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 13:44:50.324927
- Title: A Unified Hardware-based Threat Detector for AI Accelerators
- Title(参考訳): AI加速器のための統一ハードウェアベースの脅威検出器
- Authors: Xiaobei Yan, Han Qiu, Tianwei Zhang,
- Abstract要約: FPGAベースのAIアクセラレータを保護するために,UniGuardを設計する。
我々は、電力変動を捉え、教師付き機械学習モデルを訓練し、様々な種類の脅威を特定するために、タイム・トゥ・デジタル・コンバータを用いている。
- 参考スコア(独自算出の注目度): 12.96840649714218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of AI technology gives rise to a variety of security threats, which significantly compromise the confidentiality and integrity of AI models and applications. Existing software-based solutions mainly target one specific attack, and require the implementation into the models, rendering them less practical. We design UniGuard, a novel unified and non-intrusive detection methodology to safeguard FPGA-based AI accelerators. The core idea of UniGuard is to harness power side-channel information generated during model inference to spot any anomaly. We employ a Time-to-Digital Converter to capture power fluctuations and train a supervised machine learning model to identify various types of threats. Evaluations demonstrate that UniGuard can achieve 94.0% attack detection accuracy, with high generalization over unknown or adaptive attacks and robustness against varied configurations (e.g., sensor frequency and location).
- Abstract(参考訳): AIテクノロジの普及は、さまざまなセキュリティ脅威を引き起こし、AIモデルやアプリケーションの機密性や整合性を著しく損なう。
既存のソフトウェアベースのソリューションは、主に1つの特定の攻撃をターゲットとしており、モデルに実装する必要がある。
FPGAベースのAIアクセラレータを保護するために,UniGuardを設計する。
UniGuardの中核となる考え方は、モデル推論中に生成された電力側チャネル情報を利用して異常を検出することである。
我々は、電力変動を捉え、教師付き機械学習モデルを訓練し、様々な種類の脅威を特定するために、タイム・トゥ・デジタル・コンバータを用いている。
評価の結果、UniGuardは未知または適応的な攻撃に対する高い一般化と様々な構成(センサ周波数と位置)に対する堅牢性により、94.0%の攻撃検出精度を達成できることが示された。
関連論文リスト
- SoK: A Systems Perspective on Compound AI Threats and Countermeasures [3.458371054070399]
我々は、複合AIシステムに適用可能な、異なるソフトウェアとハードウェアの攻撃について議論する。
複数の攻撃機構を組み合わせることで、孤立攻撃に必要な脅威モデル仮定をいかに削減できるかを示す。
論文 参考訳(メタデータ) (2024-11-20T17:08:38Z) - MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - Defense against ML-based Power Side-channel Attacks on DNN Accelerators with Adversarial Attacks [21.611341074006162]
AIAShieldはFPGAベースのAIアクセラレータを保護するための新しい防衛手法である。
我々は、機械学習コミュニティの卓越した敵攻撃技術を活用して、繊細なノイズを発生させる。
AIAShieldは、転送性に優れた既存のソリューションより優れている。
論文 参考訳(メタデータ) (2023-12-07T04:38:01Z) - Practical Adversarial Attacks Against AI-Driven Power Allocation in a
Distributed MIMO Network [0.0]
分散マルチインプット多重出力(D-MIMO)ネットワークでは、ユーザのスペクトル効率を最適化するために電力制御が不可欠である。
深層ニューラルネットワークに基づく人工知能(AI)ソリューションが提案され、複雑性が低下する。
本研究では,悪意のあるユーザや無線ユニットから派生したターゲットAIモデルに対する脅威は,ネットワーク性能を著しく低下させる可能性があることを示す。
論文 参考訳(メタデータ) (2023-01-23T07:51:25Z) - A Human-in-the-Middle Attack against Object Detection Systems [4.764637544913963]
本稿では,暗号におけるman-in-the-Middle攻撃に触発された新たなハードウェア攻撃を提案する。
この攻撃はUAP(Universal Adversarial Perturbations)を生成し、USBカメラと検出システムとの間の摂動を注入する。
これらの知見は、自律運転のような安全クリティカルなシステムにおけるディープラーニングモデルの適用に対する深刻な懸念を提起する。
論文 参考訳(メタデータ) (2022-08-15T13:21:41Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - A Generative Model based Adversarial Security of Deep Learning and
Linear Classifier Models [0.0]
我々は,オートエンコーダモデルを用いた機械学習モデルに対する敵攻撃の軽減手法を提案する。
機械学習モデルに対する敵対的攻撃の背後にある主な考え方は、トレーニングされたモデルを操作することによって誤った結果を生成することである。
また、ディープニューラルネットワークから従来のアルゴリズムに至るまで、様々な攻撃手法に対するオートエンコーダモデルの性能についても紹介した。
論文 参考訳(メタデータ) (2020-10-17T17:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。