論文の概要: A Review of Confidentiality Threats Against Embedded Neural Network
Models
- arxiv url: http://arxiv.org/abs/2105.01401v1
- Date: Tue, 4 May 2021 10:27:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 12:50:30.195456
- Title: A Review of Confidentiality Threats Against Embedded Neural Network
Models
- Title(参考訳): 組み込みニューラルネットワークモデルに対する機密性脅威のレビュー
- Authors: Rapha\"el Joud, Pierre-Alain Moellic, R\'emi Bernhard, Jean-Baptiste
Rigaud
- Abstract要約: 本稿では,組み込みディープニューラルネットワーク(DNN)モデルの機密性を標的とした攻撃について述べる。
私たちは、Side-Channel Analysis(SCA)がモデルの機密性を侵害できる比較的未踏のバイアスであるという事実を強調しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilization of Machine Learning (ML) algorithms, especially Deep Neural
Network (DNN) models, becomes a widely accepted standard in many domains more
particularly IoT-based systems. DNN models reach impressive performances in
several sensitive fields such as medical diagnosis, smart transport or security
threat detection, and represent a valuable piece of Intellectual Property. Over
the last few years, a major trend is the large-scale deployment of models in a
wide variety of devices. However, this migration to embedded systems is slowed
down because of the broad spectrum of attacks threatening the integrity,
confidentiality and availability of embedded models. In this review, we cover
the landscape of attacks targeting the confidentiality of embedded DNN models
that may have a major impact on critical IoT systems, with a particular focus
on model extraction and data leakage. We highlight the fact that Side-Channel
Analysis (SCA) is a relatively unexplored bias by which model's confidentiality
can be compromised. Input data, architecture or parameters of a model can be
extracted from power or electromagnetic observations, testifying a real need
from a security point of view.
- Abstract(参考訳): 機械学習(ML)アルゴリズム、特にディープニューラルネットワーク(DNN)モデルの利用は、多くのドメインにおいて、特にIoTベースのシステムにおいて広く受け入れられている標準となっている。
dnnモデルは、医療診断、スマートトランスポート、セキュリティ脅威検出など、いくつかのセンシティブな分野で印象的なパフォーマンスを達成し、貴重な知的財産を表現しています。
ここ数年で大きなトレンドは、多種多様なデバイスにモデルが大規模にデプロイされることだ。
しかし、この組み込みシステムへの移行は、組み込みモデルの完全性、機密性、可用性を脅かす幅広い攻撃のため、遅くなっている。
このレビューでは、重要なIoTシステムに大きな影響を与える可能性がある組み込みDNNモデルの機密性をターゲットとした攻撃の状況について取り上げ、特にモデル抽出とデータ漏洩に焦点を当てる。
私たちは、Side-Channel Analysis(SCA)が、モデルの機密性を侵害できる比較的未解決のバイアスであるという事実を強調します。
入力データ、モデルのアーキテクチャ、パラメータは、電力または電磁観測から抽出することができ、セキュリティの観点から真のニーズを検証できる。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Malware Classification using Deep Neural Networks: Performance
Evaluation and Applications in Edge Devices [0.0]
複数のディープニューラルネットワーク(DNN)は、マルウェアのバイナリを検出し分類するように設計されている。
エッジデバイスにこれらのDNNモデルをデプロイして、特にリソース制約のあるシナリオにおいて、リアルタイムな分類を可能にすることは、大規模なIoTシステムにとって不可欠であることが証明されている。
本研究は,マルウェア検出技術の進歩に寄与し,マルウェアの早期検出にサイバーセキュリティ対策を統合することの重要性を強調した。
論文 参考訳(メタデータ) (2023-08-21T16:34:46Z) - Leveraging a Probabilistic PCA Model to Understand the Multivariate
Statistical Network Monitoring Framework for Network Security Anomaly
Detection [64.1680666036655]
確率的生成モデルの観点からPCAに基づく異常検出手法を再検討する。
2つの異なるデータセットを用いて数学的モデルを評価した。
論文 参考訳(メタデータ) (2023-02-02T13:41:18Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - An Overview of Laser Injection against Embedded Neural Network Models [0.0]
フォールトインジェクション分析(FIA)は、攻撃ベクトルの広いスペクトルで非常に強力であることが知られています。
本稿では,最先端機器によるレーザー注入と,Adversarial Machine Learningの理論的証拠を組み合わせることで,ディープラーニング推論の完全性に対する脅威を浮き彫りにする方法について論じる。
論文 参考訳(メタデータ) (2021-05-04T10:32:30Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - DeepMAL -- Deep Learning Models for Malware Traffic Detection and
Classification [4.187494796512101]
本稿では、悪意のあるトラフィックの基盤となる統計をキャプチャできるDLモデルであるDeepMALを紹介する。
DeepMALは、従来の浅層モデルよりも高い精度でマルウェアフローを検出・分類できることを示す。
論文 参考訳(メタデータ) (2020-03-03T16:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。