論文の概要: Learning to Localize Leakage of Cryptographic Sensitive Variables
- arxiv url: http://arxiv.org/abs/2503.07464v1
- Date: Mon, 10 Mar 2025 15:42:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:49:47.184251
- Title: Learning to Localize Leakage of Cryptographic Sensitive Variables
- Title(参考訳): 暗号感度変数の漏洩を局所化する学習
- Authors: Jimmy Gammell, Anand Raghunathan, Abolfazl Hashemi, Kaushik Roy,
- Abstract要約: 本研究では,異なる時点に記録された測定値による相対的漏洩量を決定するための,原理的深層学習フレームワークを開発する。
この情報は、暗号ハードウェア設計者にとって、ハードウェアリークの理由を理解する上で貴重なものだ。
- 参考スコア(独自算出の注目度): 13.98875599619791
- License:
- Abstract: While cryptographic algorithms such as the ubiquitous Advanced Encryption Standard (AES) are secure, *physical implementations* of these algorithms in hardware inevitably 'leak' sensitive data such as cryptographic keys. A particularly insidious form of leakage arises from the fact that hardware consumes power and emits radiation in a manner that is statistically associated with the data it processes and the instructions it executes. Supervised deep learning has emerged as a state-of-the-art tool for carrying out *side-channel attacks*, which exploit this leakage by learning to map power/radiation measurements throughout encryption to the sensitive data operated on during that encryption. In this work we develop a principled deep learning framework for determining the relative leakage due to measurements recorded at different points in time, in order to inform *defense* against such attacks. This information is invaluable to cryptographic hardware designers for understanding *why* their hardware leaks and how they can mitigate it (e.g. by indicating the particular sections of code or electronic components which are responsible). Our framework is based on an adversarial game between a family of classifiers trained to estimate the conditional distributions of sensitive data given subsets of measurements, and a budget-constrained noise distribution which probabilistically erases individual measurements to maximize the loss of these classifiers. We demonstrate our method's efficacy and ability to overcome limitations of prior work through extensive experimental comparison with 8 baseline methods using 3 evaluation metrics and 6 publicly-available power/EM trace datasets from AES, ECC and RSA implementations. We provide an open-source PyTorch implementation of these experiments.
- Abstract(参考訳): ユビキタスなAdvanced Encryption Standard (AES) のような暗号アルゴリズムは安全であるが、*物理的実装* ハードウェアにおけるこれらのアルゴリズムは、暗号鍵のような機密データを必然的に「漏洩」している。
特に悪質な漏れは、ハードウェアが電力を消費し、その処理するデータや実行する命令と統計的に関連づけられた方法で放射するという事実から生じる。
監視されたディープラーニングは、*サイドチャネルアタック*を実行するための最先端ツールとして登場し、このリークを利用して、暗号化全体を通して電力/放射線の測定を、その暗号化中に操作される機密データにマップする。
本研究では,このような攻撃に対して *defense* を通知するために,異なる時点における測定値による相対的漏洩を判定する,原理的深層学習フレームワークを開発する。
この情報は、暗号ハードウェア設計者にとって、ハードウェアリークの理由と、それを緩和する方法(例えば、責任のあるコードや電子部品の特定の部分を示すことによって)を理解する上で、貴重なものである。
本フレームワークは,各分類器の損失を最大化するために個人測定を確率論的に消去する予算制約付き雑音分布とを用いて,測定のサブセットに対するセンシティブなデータの条件分布を推定する訓練を受けた分類器群間の対角ゲームに基づく。
3つの評価指標とAES,ECC,RSA実装から公開されている6つのパワー/EMトレースデータセットを用いた8つのベースライン手法との比較により,先行作業の限界を克服する手法の有効性と能力を実証した。
これらの実験のオープンソースのPyTorch実装を提供する。
関連論文リスト
- Cryptanalysis via Machine Learning Based Information Theoretic Metrics [58.96805474751668]
本稿では,機械学習アルゴリズムの新たな2つの応用法を提案する。
これらのアルゴリズムは、監査設定で容易に適用でき、暗号システムの堅牢性を評価することができる。
本稿では,DES,RSA,AES ECBなど,IND-CPAの安全でない暗号化スキームを高精度に識別する。
論文 参考訳(メタデータ) (2025-01-25T04:53:36Z) - Power side-channel leakage localization through adversarial training of deep neural networks [10.840434597980723]
監視されたディープラーニングは、暗号実装に対するパワーサイドチャネル攻撃を実行する効果的なツールとして登場した。
本稿では,暗号鍵の漏洩の原因となるパワートレースのタイムステップを特定する手法を提案する。
論文 参考訳(メタデータ) (2024-10-29T18:04:41Z) - A Transformer-Based Framework for Payload Malware Detection and Classification [0.0]
ディープパケット検査(Deep Packet Inspection, DPI)は、IDSがネットワークパケットの内容を分析することを可能にする技術である。
本稿では,悪意のあるトラフィックを検出するために適応したトランスフォーマーに基づくDPIアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-27T03:25:45Z) - Privacy Preserving Anomaly Detection on Homomorphic Encrypted Data from IoT Sensors [0.9831489366502302]
均質な暗号化スキームは、暗号化されたままIoTデータ上での操作の処理と実行を可能にする、有望なソリューションである。
本稿では,IoTデバイスが生成する同型暗号化データを対象とした,新たなプライバシー保護型異常検出ソリューションを提案する。
論文 参考訳(メタデータ) (2024-03-14T12:11:25Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - DCDetector: An IoT terminal vulnerability mining system based on
distributed deep ensemble learning under source code representation [2.561778620560749]
この研究の目的は、C/C++のような高レベルの言語のソースコードの脆弱性をインテリジェントに検出することである。
これにより、ソースコードのセンシティブな文関連スライスをコード表現し、分散深層学習モデルの設計により脆弱性を検出することができる。
実験により,従来の静的解析の偽陽性率を低減し,機械学習の性能と精度を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-11-29T14:19:14Z) - A Robust and Explainable Data-Driven Anomaly Detection Approach For
Power Electronics [56.86150790999639]
本稿では,2つの異常検出・分類手法,すなわち行列プロファイルアルゴリズムと異常変換器を提案する。
行列プロファイルアルゴリズムは、ストリーミング時系列データにおけるリアルタイム異常を検出するための一般化可能なアプローチとして適している。
検知器の感度、リコール、検出精度を調整するために、一連のカスタムフィルタが作成され、追加される。
論文 参考訳(メタデータ) (2022-09-23T06:09:35Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Efficient CNN Building Blocks for Encrypted Data [6.955451042536852]
ホモモルフィック暗号化(FHE)は機械学習と推論を可能にする有望な技術である。
選択したFHE方式の動作パラメータが機械学習モデルの設計に大きな影響を与えることを示す。
実験により, 上記の設計パラメータの選択は, 精度, セキュリティレベル, 計算時間の間に大きなトレードオフをもたらすことがわかった。
論文 参考訳(メタデータ) (2021-01-30T21:47:23Z) - Bayesian Optimization with Machine Learning Algorithms Towards Anomaly
Detection [66.05992706105224]
本稿では,ベイズ最適化手法を用いた効果的な異常検出フレームワークを提案する。
ISCX 2012データセットを用いて検討したアルゴリズムの性能を評価する。
実験結果から, 精度, 精度, 低コストアラームレート, リコールの観点から, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-08-05T19:29:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。