論文の概要: Backing the Wrong Horse: How Bit-Level Netlist Augmentation can Counter Power Side Channel Attacks
- arxiv url: http://arxiv.org/abs/2510.04640v1
- Date: Mon, 06 Oct 2025 09:45:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.786939
- Title: Backing the Wrong Horse: How Bit-Level Netlist Augmentation can Counter Power Side Channel Attacks
- Title(参考訳): ビットレベルネットリストの強化は、サイドチャネルの攻撃を防げる
- Authors: Ali Asghar, Andreas Becher, Daniel Ziener,
- Abstract要約: 処理データに対する消費電力の依存はCMOS回路の脆弱性として知られている。
電力ベースのサイドチャネル攻撃は、暗号アルゴリズムの実装から秘密鍵などの機密情報を抽出することができる。
- 参考スコア(独自算出の注目度): 0.45880283710344066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The dependence of power-consumption on the processed data is a known vulnerability of CMOS circuits, resulting in side channels which can be exploited by power-based side channel attacks (SCAs). These attacks can extract sensitive information, such as secret keys, from the implementation of cryptographic algorithms. Existing countermeasures against power-based side channel attacks focus on analyzing information leakage at the byte level. However, this approach neglects the impact of individual bits on the overall resistance of a cryptographic implementation. In this work, we present a countermeasure based on single-bit leakage. The results suggest that the proposed countermeasure cannot be broken by attacks using conventional SCA leakage models.
- Abstract(参考訳): 処理されたデータに対する消費電力の依存はCMOS回路の脆弱性として知られており、電力ベースのサイドチャネルアタック(SCA)によって利用することができる。
これらの攻撃は暗号アルゴリズムの実装から秘密鍵などの機密情報を抽出することができる。
電力ベースのサイドチャネル攻撃に対する既存の対策は、バイトレベルでの情報漏洩を分析することに集中している。
しかし、このアプローチは、暗号実装の全体的な抵抗に対する個々のビットの影響を無視する。
本研究では,単一ビットリークに基づく対策を提案する。
提案手法は従来のSCAリークモデルによる攻撃では破れないことが示唆された。
関連論文リスト
- Fooling the Decoder: An Adversarial Attack on Quantum Error Correction [49.48516314472825]
本研究では,基本的なRL曲面符号デコーダ(DeepQ)を目標とし,量子誤り訂正に対する最初の逆攻撃を生成する。
メモリ実験における論理量子ビット寿命を最大5桁まで短縮する攻撃を実証する。
この攻撃は、機械学習ベースのQECの感受性を強調し、堅牢なQEC手法に関するさらなる研究の重要性を強調している。
論文 参考訳(メタデータ) (2025-04-28T10:10:05Z) - Systematic Use of Random Self-Reducibility against Physical Attacks [10.581645335323655]
本研究は,パワーサイドチャネルやフォールトインジェクション攻撃を含む物理攻撃に対する,ブラックボックスソフトウェアに基づく新しい対策を提案する。
このアプローチでは、ランダムな自己認識性と自己正当性の概念を使用して、保護のための実行にランダムさと冗長性を追加する。
RSA-CRTシグネチャアルゴリズムとKyber Key Generation公開鍵暗号システムに対して,この対策のエンドツーエンド実装を示す。
論文 参考訳(メタデータ) (2024-05-08T16:31:41Z) - Information Leakage through Physical Layer Supply Voltage Coupling Vulnerability [2.6490401904186758]
物理層電源電圧結合(PSVC)によるデータ依存電力変動をリークする新しいサイドチャネル脆弱性を導入する。
従来の電源サイドチャネル攻撃とは異なり、提案された脆弱性により、敵は攻撃をマウントし、デバイスを変更することなく情報を抽出することができる。
論文 参考訳(メタデータ) (2024-03-12T23:39:54Z) - RandOhm: Mitigating Impedance Side-channel Attacks using Randomized Circuit Configurations [6.388730198692013]
我々は、メインストリームFPGAの部分再構成(PR)機能に基づいて移動目標防御(MTD)戦略を利用するRandOhmを紹介する。
PDNインピーダンスによる情報漏洩は、回路の秘密に敏感な部分の実行時再構成によって大幅に低減できることを示す。
既存のPRベースの対策とは対照的に、RandOhmはオープンソースのビットストリーム操作ツールをデプロイし、ランダム化を高速化し、リアルタイム保護を提供する。
論文 参考訳(メタデータ) (2024-01-17T02:22:28Z) - The Adversarial Implications of Variable-Time Inference [47.44631666803983]
本稿では,攻撃対象のMLモデルの予測を後処理するアルゴリズムの実行時間を簡単に計測する,新たなサイドチャネルを利用するアプローチを提案する。
我々は,物体検出装置の動作において重要な役割を果たす非最大抑圧(NMS)アルゴリズムからの漏れを調査する。
我々は、YOLOv3検出器に対する攻撃を実演し、タイミングリークを利用して、逆例を用いてオブジェクト検出を回避し、データセット推論を行う。
論文 参考訳(メタデータ) (2023-09-05T11:53:17Z) - Fault-tolerant Coding for Entanglement-Assisted Communication [46.0607942851373]
本稿では,量子チャネルに対するフォールトトレラントチャネル符号化の研究について述べる。
我々は、フォールトトレラント量子コンピューティングの手法を用いて、このシナリオで古典的および量子的情報を送信するための符号化定理を確立する。
特に,ゲートエラーがゼロに近づくと,耐故障能力が通常のキャパシティに近づくことを示す。
論文 参考訳(メタデータ) (2022-10-06T14:09:16Z) - Balancing detectability and performance of attacks on the control
channel of Markov Decision Processes [77.66954176188426]
マルコフ決定過程(MDPs)の制御チャネルにおける最適ステルス毒素攻撃の設計問題について検討する。
この研究は、MDPに適用された敵国・毒殺攻撃や強化学習(RL)手法に対する研究コミュニティの最近の関心に動機づけられている。
論文 参考訳(メタデータ) (2021-09-15T09:13:10Z) - Defence against adversarial attacks using classical and quantum-enhanced
Boltzmann machines [64.62510681492994]
生成モデルはデータセットの基盤となる分布を学習し、それらは本質的に小さな摂動に対してより堅牢である。
MNISTデータセット上のBoltzmannマシンによる攻撃に対して、5%から72%の改良が見られる。
論文 参考訳(メタデータ) (2020-12-21T19:00:03Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。