論文の概要: Michscan: Black-Box Neural Network Integrity Checking at Runtime Through Power Analysis
- arxiv url: http://arxiv.org/abs/2501.10174v1
- Date: Fri, 17 Jan 2025 13:17:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 13:56:48.875301
- Title: Michscan: Black-Box Neural Network Integrity Checking at Runtime Through Power Analysis
- Title(参考訳): Michscan: 電源分析による実行時のブラックボックスニューラルネットワーク統合チェック
- Authors: Robi Paul, Michael Zuzak,
- Abstract要約: Michscanは、パワー分析を利用してブラックボックスのTinyMLニューラルネットワークの完全性を検証する手法である。
Michscanはブラックボックス環境で動作し、協力的または信頼できるモデル所有者を必要としない。
- 参考スコア(独自算出の注目度): 0.7295575032122639
- License:
- Abstract: As neural networks are increasingly used for critical decision-making tasks, the threat of integrity attacks, where an adversary maliciously alters a model, has become a significant security and safety concern. These concerns are compounded by the use of licensed models, where end-users purchase third-party models with only black-box access to protect model intellectual property (IP). In such scenarios, conventional approaches to verify model integrity require knowledge of model parameters or cooperative model owners. To address this challenge, we propose Michscan, a methodology leveraging power analysis to verify the integrity of black-box TinyML neural networks designed for resource-constrained devices. Michscan is based on the observation that modifications to model parameters impact the instantaneous power consumption of the device. We leverage this observation to develop a runtime model integrity-checking methodology that employs correlational power analysis using a golden template or signature to mathematically quantify the likelihood of model integrity violations at runtime through the Mann-Whitney U-Test. Michscan operates in a black-box environment and does not require a cooperative or trustworthy model owner. We evaluated Michscan using an STM32F303RC microcontroller with an ARM Cortex-M4 running four TinyML models in the presence of three model integrity violations. Michscan successfully detected all integrity violations at runtime using power data from five inferences. All detected violations had a negligible probability P < 10^(-5) of being produced from an unmodified model (i.e., false positive).
- Abstract(参考訳): ニューラルネットワークが重要な意思決定タスクにますます使われるようになるにつれ、敵がモデルを悪意的に変更する完全性攻撃の脅威は、重要なセキュリティと安全性の懸念となっている。
これらの懸念は、エンドユーザーがモデル知的財産権(IP)を保護するためにブラックボックスアクセスしか持たないサードパーティーモデルを購入するというライセンスモデルの使用によって複雑化されている。
このようなシナリオでは、モデル整合性を検証する従来の手法は、モデルパラメータや協調モデル所有者の知識を必要とする。
この課題に対処するために、リソース制約のあるデバイス用に設計されたブラックボックスTinyMLニューラルネットワークの整合性を検証するために、電力分析を利用する手法であるMichscanを提案する。
Michscanは、モデルパラメータの変更がデバイスの瞬時に消費電力に影響を与えるという観察に基づいている。
本研究では,金のテンプレートやシグネチャを用いた相関パワー分析を用いて,マン・ホイットニー U-Test を用いて,実行時のモデル整合性違反の可能性を数学的に定量化する実行時モデル整合性検査手法を開発した。
Michscanはブラックボックス環境で動作し、協力的または信頼できるモデル所有者を必要としない。
STM32F303RCマイクロコントローラとARM Cortex-M4の4つのTinyMLモデルを用いたMichscanの評価を行った。
Michscanは5つの推論のパワーデータを使用して、実行時にすべての整合性違反を検出することに成功した。
検出された全ての違反は、修正されていないモデル(すなわち偽陽性)から生成される、無視可能な確率 P < 10^(-5) を持つ。
関連論文リスト
- Predicting the Performance of Black-box LLMs through Self-Queries [60.87193950962585]
大規模言語モデル(LLM)は、AIシステムにおいてますます頼りになってきている。
本稿では、フォローアッププロンプトを使用し、異なる応答の確率を表現として捉え、ブラックボックス方式でLCMの特徴を抽出する。
これらの低次元表現上で線形モデルをトレーニングすると、インスタンスレベルでのモデル性能の信頼性を予測できることを示す。
論文 参考訳(メタデータ) (2025-01-02T22:26:54Z) - Instantaneous, Comprehensible, and Fixable Soundness Checking of Realistic BPMN Models [0.9903198600681908]
私たちはBPMNモデルのエラーを瞬時に識別できる新しい音質チェックツールを導入しました。
ツールの音質チェックは,500ms未満の即時性であることを示す。
このツールはオープンソースで、モジュール化され、発見され、人気のあるBPMNモデリングツールに統合されています。
論文 参考訳(メタデータ) (2024-07-04T14:34:52Z) - A2-DIDM: Privacy-preserving Accumulator-enabled Auditing for Distributed Identity of DNN Model [43.10692581757967]
DNNモデルの分散IDのための新しい累積型監査法(A2-DIDM)を提案する。
A2-DIDMは、ブロックチェーンとゼロ知識技術を使用して、軽量なオンチェーンオーナシップ認証を確保しながら、データの保護とプライバシ機能を実現している。
論文 参考訳(メタデータ) (2024-05-07T08:24:50Z) - Are You Stealing My Model? Sample Correlation for Fingerprinting Deep
Neural Networks [86.55317144826179]
従来の方法は、常にモデル指紋として転送可能な敵の例を利用する。
本稿では,SAmple correlation (SAC) に基づく新しいモデル盗難検出手法を提案する。
SACは、敵の訓練や移動学習を含む様々なモデル盗難攻撃をうまく防いでいる。
論文 参考訳(メタデータ) (2022-10-21T02:07:50Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - How to Robustify Black-Box ML Models? A Zeroth-Order Optimization
Perspective [74.47093382436823]
入力クエリと出力フィードバックだけでブラックボックスモデルを堅牢化する方法?
我々は,ブラックボックスモデルに適用可能な防御操作の一般的な概念を提案し,それを復号化スムーシング(DS)のレンズを通して設計する。
我々は,ZO-AE-DSが既存のベースラインよりも精度,堅牢性,クエリの複雑さを向上できることを実証的に示す。
論文 参考訳(メタデータ) (2022-03-27T03:23:32Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。