論文の概要: SCNet: A Neural Network for Automated Side-Channel Attack
- arxiv url: http://arxiv.org/abs/2008.00476v1
- Date: Sun, 2 Aug 2020 13:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 19:55:16.717672
- Title: SCNet: A Neural Network for Automated Side-Channel Attack
- Title(参考訳): SCNet: サイドチャネル攻撃を自動化するニューラルネットワーク
- Authors: Guanlin Li, Chang Liu, Han Yu, Yanhong Fan, Libang Zhang, Zongyue
Wang, Meiqin Wang
- Abstract要約: 本稿では,サイドチャネル攻撃を自動的に行うSCNetを提案する。
また、サイドチャネルドメイン知識と異なるディープラーニングモデルを組み合わせたネットワークを設計し、性能を向上する。
提案モデルは,コンピュータシステムのロバスト性を自動テストするための有用なツールである。
- 参考スコア(独自算出の注目度): 13.0547560056431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The side-channel attack is an attack method based on the information gained
about implementations of computer systems, rather than weaknesses in
algorithms. Information about system characteristics such as power consumption,
electromagnetic leaks and sound can be exploited by the side-channel attack to
compromise the system. Much research effort has been directed towards this
field. However, such an attack still requires strong skills, thus can only be
performed effectively by experts. Here, we propose SCNet, which automatically
performs side-channel attacks. And we also design this network combining with
side-channel domain knowledge and different deep learning model to improve the
performance and better to explain the result. The results show that our model
achieves good performance with fewer parameters. The proposed model is a useful
tool for automatically testing the robustness of computer systems.
- Abstract(参考訳): サイドチャネル攻撃は、アルゴリズムの弱点ではなく、コンピュータシステムの実装に関する情報に基づく攻撃方法である。
電力消費、電磁漏れ、音などのシステム特性に関する情報は、サイドチャネル攻撃によってシステムに侵入することができる。
多くの研究がこの分野に向けられている。
しかし、そのような攻撃は依然として強力な技術を必要とするため、専門家が効果的に行うことができる。
本稿では,サイドチャネル攻撃を自動実行するSCNetを提案する。
また、このネットワークをサイドチャネルのドメイン知識と異なるディープラーニングモデルを組み合わせて設計し、パフォーマンスを改善し、結果を説明する。
その結果,本モデルではパラメータが少なく,優れた性能が得られた。
提案モデルは,コンピュータシステムの堅牢性を自動テストするための有用なツールである。
関連論文リスト
- Multi-agent Reinforcement Learning-based Network Intrusion Detection System [3.4636217357968904]
侵入検知システム(IDS)は,コンピュータネットワークのセキュリティ確保において重要な役割を担っている。
本稿では,自動,効率的,堅牢なネットワーク侵入検出が可能な,新しいマルチエージェント強化学習(RL)アーキテクチャを提案する。
我々のソリューションは、新しい攻撃の追加に対応し、既存の攻撃パターンの変更に効果的に適応するように設計されたレジリエントなアーキテクチャを導入します。
論文 参考訳(メタデータ) (2024-07-08T09:18:59Z) - When Side-Channel Attacks Break the Black-Box Property of Embedded
Artificial Intelligence [0.8192907805418583]
ディープニューラルネットワーク(DNN)は、人間の観察者にとって検出不能な状態でネットワークを騙すために設計された悪意のある例である。
本稿では,ロジットを抽出することで,この制約を解決するアーキテクチャ非依存攻撃を提案する。
本手法は, 電磁漏れを利用したサイドチャネル攻撃を行うことにより, ハードウェアとソフトウェアを併用する。
論文 参考訳(メタデータ) (2023-11-23T13:41:22Z) - Dynamics-aware Adversarial Attack of Adaptive Neural Networks [75.50214601278455]
適応型ニューラルネットワークの動的対向攻撃問題について検討する。
本稿では,LGM(Leaded Gradient Method)を提案する。
我々のLGMは、動的無意識攻撃法と比較して、優れた敵攻撃性能を達成している。
論文 参考訳(メタデータ) (2022-10-15T01:32:08Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Channel-wise Gated Res2Net: Towards Robust Detection of Synthetic Speech
Attacks [67.7648985513978]
自動話者検証(ASV)における既存のアンチスプーフィングのアプローチは、未確認攻撃に対する一般化性に欠ける。
本稿では,チャネルワイズゲーティング機構を実現するためにRes2Netを改良した新しいCG-Res2Netを提案する。
論文 参考訳(メタデータ) (2021-07-19T12:27:40Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Leaky Nets: Recovering Embedded Neural Network Models and Inputs through
Simple Power and Timing Side-Channels -- Attacks and Defenses [4.014351341279427]
ニューラルネットワーク実装のサイドチャネル脆弱性について,パラメータを復元して検討する。
我々は、異なる精度のネットワーク上で人気のあるマイクロコントローラプラットフォームに対する攻撃を実証する。
タイミングに基づく攻撃に対する対策を実施し、そのオーバーヘッドを分析する。
論文 参考訳(メタデータ) (2021-03-26T21:28:13Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Firearm Detection and Segmentation Using an Ensemble of Semantic Neural
Networks [62.997667081978825]
本稿では,意味的畳み込みニューラルネットワークのアンサンブルに基づく兵器検出システムを提案する。
特定のタスクに特化した単純なニューラルネットワークのセットは、計算リソースを少なくし、並列にトレーニングすることができる。
個々のネットワークの出力の集約によって与えられるシステムの全体的な出力は、ユーザが偽陽性と偽陰性とをトレードオフするように調整することができる。
論文 参考訳(メタデータ) (2020-02-11T13:58:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。