論文の概要: Interpreting Emergent Features in Deep Learning-based Side-channel Analysis
- arxiv url: http://arxiv.org/abs/2502.00384v2
- Date: Tue, 04 Nov 2025 10:32:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:25.968768
- Title: Interpreting Emergent Features in Deep Learning-based Side-channel Analysis
- Title(参考訳): ディープラーニングを用いたサイドチャネル解析における創発的特徴の解釈
- Authors: Sengim Karayalçin, Marina Krček, Stjepan Picek,
- Abstract要約: サイドチャネル分析(SCA)は、意図しない物理的信号を利用してセキュアなデバイスから秘密情報を抽出することで、現実世界の脅威となる。
近年、ディープラーニングがSCAの顕著な手法として登場し、解釈可能性の犠牲で最先端の攻撃性能を実現している。
本研究では、SCAでトレーニングされたニューラルネットワークに機械論的解釈可能性を適用し、側チャネルトレースのテクスチャ情報を利用したテクスチャショーモデルを明らかにする。
- 参考スコア(独自算出の注目度): 14.54241135461798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Side-channel analysis (SCA) poses a real-world threat by exploiting unintentional physical signals to extract secret information from secure devices. Evaluation labs also use the same techniques to certify device security. In recent years, deep learning has emerged as a prominent method for SCA, achieving state-of-the-art attack performance at the cost of interpretability. Understanding how neural networks extract secrets is crucial for security evaluators aiming to defend against such attacks, as only by understanding the attack can one propose better countermeasures. In this work, we apply mechanistic interpretability to neural networks trained for SCA, revealing \textit{how} models exploit \textit{what} leakage in side-channel traces. We focus on sudden jumps in performance to reverse engineer learned representations, ultimately recovering secret masks and moving the evaluation process from black-box to white-box. Our results show that mechanistic interpretability can scale to realistic SCA settings, even when relevant inputs are sparse, model accuracies are low, and side-channel protections prevent standard input interventions.
- Abstract(参考訳): サイドチャネル分析(SCA)は、意図しない物理的信号を利用してセキュアなデバイスから秘密情報を抽出することで、現実世界の脅威となる。
評価ラボは、デバイスセキュリティの認証にも同じ技術を使用している。
近年、ディープラーニングがSCAの顕著な手法として登場し、解釈可能性の犠牲で最先端の攻撃性能を実現している。
ニューラルネットワークがシークレットを抽出する方法を理解することは、そのような攻撃に対する防御を目的としたセキュリティ評価者にとって重要である。
本研究では、SCAでトレーニングされたニューラルネットワークに機械論的解釈可能性を適用し、側チャネルトレースにおける \textit{what} リークを利用した \textit{how} モデルを明らかにする。
我々は、学習した表現をリバースエンジニアに提供し、最終的に秘密のマスクを回収し、評価プロセスをブラックボックスからホワイトボックスに移行した。
本結果から, 機械的解釈性は, 入力が疎い場合でも, モデル精度が低く, サイドチャネル保護が標準入力介入を妨げている場合においても, 現実的なSCA設定に拡張可能であることが示された。
関連論文リスト
- Exposing and Defending Membership Leakage in Vulnerability Prediction Models [13.905375956316632]
メンバーシップ推論攻撃(MIA)は、トレーニング中に特定のコードサンプルが使用されたかどうかを推測することを目的としている。
ノイズベースメンバーシップ推論防衛(NMID)は、対向的推論を妨害するために出力マスキングとガウスノイズ注入を適用した軽量防衛モジュールである。
我々の研究は、コード分析における重要なプライバシーリスクを強調し、AIベースのソフトウェアシステムを保護するための実用的な防衛戦略を提供する。
論文 参考訳(メタデータ) (2025-12-09T06:40:51Z) - Preliminary Investigation into Uncertainty-Aware Attack Stage Classification [81.28215542218724]
この研究は、不確実性の下での攻撃段階推論の問題に対処する。
Evidential Deep Learning (EDL) に基づく分類手法を提案し、ディリクレ分布のパラメータを可能な段階に出力することで予測の不確実性をモデル化する。
シミュレーション環境における予備実験により,提案モデルが精度良く攻撃の段階を推定できることが実証された。
論文 参考訳(メタデータ) (2025-08-01T06:58:00Z) - Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Hybrid Deep Learning Model for Multiple Cache Side Channel Attacks Detection: A Comparative Analysis [0.0]
キャッシュサイドチャネルアタックは、共有計算リソースの弱点を活用する。
本研究は、これらの脅威の特定の種類である指紋認証攻撃に焦点を当てる。
キャッシュ側チャネル攻撃を検出するためのハイブリッドディープラーニングモデルを提案する。
論文 参考訳(メタデータ) (2025-01-28T18:14:43Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Revealing Vulnerabilities of Neural Networks in Parameter Learning and Defense Against Explanation-Aware Backdoors [2.1165011830664673]
ブラディング攻撃は、機械学習アルゴリズムの予測と説明を大きく変える可能性がある。
我々は統計的解析を利用して、目隠し攻撃後のCNN内のCNN重みの変化を明らかにする。
本研究では,評価段階における攻撃の有効性を限定する手法を提案する。
論文 参考訳(メタデータ) (2024-03-25T09:36:10Z) - A Review and Comparison of AI Enhanced Side Channel Analysis [10.012903753622284]
サイドチャネル分析(SCA)は、現代のコンピューティングシステムにおいて、プライバシーとセキュリティに対する明らかな脅威である。
我々は、サイドチャネル分析のための最新の最先端ディープラーニング技術、それらの背後にある理論、その実施方法について検討する。
論文 参考訳(メタデータ) (2024-02-03T23:33:24Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Unveiling Vulnerabilities in Interpretable Deep Learning Systems with
Query-Efficient Black-box Attacks [16.13790238416691]
解釈可能なディープラーニングシステム(IDLS)は、システムの透明性と説明性を高めるために設計されている。
本稿では,ターゲットモデルとその解釈モデルに関する事前知識を必要としない新規な微生物遺伝アルゴリズムによるIDLSに対するブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2023-07-21T21:09:54Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Support Vector Machines under Adversarial Label Contamination [13.299257835329868]
本稿では,SVM(Support Vector Machines)のセキュリティ評価を行った。
特に,複数のラベルを反転させることで,SVMの分類エラーを形式化することを目的とした攻撃者について検討する。
我々は、よりセキュアなSVM学習アルゴリズムを開発する上で、我々のアプローチは有用な洞察を与えることができると論じる。
論文 参考訳(メタデータ) (2022-06-01T09:38:07Z) - Defending From Physically-Realizable Adversarial Attacks Through
Internal Over-Activation Analysis [61.68061613161187]
Z-Maskは、敵の攻撃に対する畳み込みネットワークの堅牢性を改善するための堅牢で効果的な戦略である。
提示されたディフェンスは、入力画像中の対向対象に対応する画素を検出し、隠蔽するために、内部ネットワーク機能で実行される特定のZスコア解析に依存する。
追加の実験では、Z-Maskは防衛対応攻撃に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2022-03-14T17:41:46Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。