論文の概要: It's Not Just a Phase: On Investigating Phase Transitions in Deep Learning-based Side-channel Analysis
- arxiv url: http://arxiv.org/abs/2502.00384v1
- Date: Sat, 01 Feb 2025 09:41:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:00:40.236600
- Title: It's Not Just a Phase: On Investigating Phase Transitions in Deep Learning-based Side-channel Analysis
- Title(参考訳): 相だけではない:深層学習に基づくサイドチャネル解析における相転移の研究
- Authors: Sengim Karayalçin, Marina Krček, Stjepan Picek,
- Abstract要約: サイドチャネル分析(SCA)は、攻撃者が意図しない情報を観察して秘密データを得るという現実的な脅威である。
ディープラーニングはブラックボックスとして機能するので、将来的には攻撃の仕組みを理解しなければならないセキュリティ評価者にとって、役に立たない。
この研究は、機械的解釈可能性が、関連情報が不足している現実的なシナリオに効果的にスケールできることを示します。
- 参考スコア(独自算出の注目度): 11.097488691672934
- License:
- Abstract: Side-channel analysis (SCA) represents a realistic threat where the attacker can observe unintentional information to obtain secret data. Evaluation labs also use the same SCA techniques in the security certification process. The results in the last decade have shown that machine learning, especially deep learning, is an extremely powerful SCA approach, allowing the breaking of protected devices while achieving optimal attack performance. Unfortunately, deep learning operates as a black-box, making it less useful for security evaluators who must understand how attacks work to prevent them in the future. This work demonstrates that mechanistic interpretability can effectively scale to realistic scenarios where relevant information is sparse and well-defined interchange interventions to the input are impossible due to side-channel protections. Concretely, we reverse engineer the features the network learns during phase transitions, eventually retrieving secret masks, allowing us to move from black-box to white-box evaluation.
- Abstract(参考訳): サイドチャネル分析(SCA)は、攻撃者が意図しない情報を観察して秘密データを得るという現実的な脅威である。
評価ラボでは、セキュリティ認証プロセスでも同じSCA技術を使用します。
この10年の結果、機械学習、特にディープラーニングは、非常に強力なSCAアプローチであり、最適な攻撃性能を達成しつつ、保護されたデバイスを壊すことを可能にしている。
残念ながら、ディープラーニングはブラックボックスとして機能しているため、将来的には攻撃の仕組みを理解しなければならないセキュリティ評価者にとって、役に立たない。
この研究は、機械的解釈可能性(mechanistic interpretability)が、関連情報がスパースであり、適切に定義された入力への相互干渉がサイドチャネル保護のため不可能な現実的なシナリオに効果的にスケールできることを実証する。
具体的には、フェーズ移行時にネットワークが学習する機能をリバースエンジニアリングし、最終的にシークレットマスクを取得し、ブラックボックスからホワイトボックス評価に移行する。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - A Review and Comparison of AI Enhanced Side Channel Analysis [10.012903753622284]
サイドチャネル分析(SCA)は、現代のコンピューティングシステムにおいて、プライバシーとセキュリティに対する明らかな脅威である。
我々は、サイドチャネル分析のための最新の最先端ディープラーニング技術、それらの背後にある理論、その実施方法について検討する。
論文 参考訳(メタデータ) (2024-02-03T23:33:24Z) - Untargeted White-box Adversarial Attack with Heuristic Defence Methods
in Real-time Deep Learning based Network Intrusion Detection System [0.0]
Adversarial Machine Learning (AML)では、悪意のあるアクターが機械学習(ML)とディープラーニング(DL)モデルを騙して、誤った予測を生成する。
AMLは新たな研究領域であり、敵の攻撃の詳細な研究に欠かせないものとなっている。
我々は,FGSM(Fast Gradient Sign Method),JSMA(Jacobian Saliency Map Attack),PGD(Projected Gradient Descent),Cerini & Wagner(C&W)の4つの強力な攻撃手法を実装した。
論文 参考訳(メタデータ) (2023-10-05T06:32:56Z) - Unveiling Vulnerabilities in Interpretable Deep Learning Systems with
Query-Efficient Black-box Attacks [16.13790238416691]
解釈可能なディープラーニングシステム(IDLS)は、システムの透明性と説明性を高めるために設計されている。
本稿では,ターゲットモデルとその解釈モデルに関する事前知識を必要としない新規な微生物遺伝アルゴリズムによるIDLSに対するブラックボックス攻撃を提案する。
論文 参考訳(メタデータ) (2023-07-21T21:09:54Z) - Protecting Split Learning by Potential Energy Loss [70.81375125791979]
我々は、分割学習の前方埋め込みからのプライバシー漏洩に焦点を当てる。
我々は、前方埋め込みをより「複雑化」させるためのエネルギー損失の可能性を提案する。
論文 参考訳(メタデータ) (2022-10-18T06:21:11Z) - Support Vector Machines under Adversarial Label Contamination [13.299257835329868]
本稿では,SVM(Support Vector Machines)のセキュリティ評価を行った。
特に,複数のラベルを反転させることで,SVMの分類エラーを形式化することを目的とした攻撃者について検討する。
我々は、よりセキュアなSVM学習アルゴリズムを開発する上で、我々のアプローチは有用な洞察を与えることができると論じる。
論文 参考訳(メタデータ) (2022-06-01T09:38:07Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。