論文の概要、ライセンス

# (参考訳) ディープコールドブートアタックによるAESキーの復元 [全文訳有]

Recovering AES Keys with a Deep Cold Boot Attack ( http://arxiv.org/abs/2106.04876v1 )

ライセンス: CC BY 4.0
Itamar Zimerman, Eliya Nachmani, Lior Wolf(参考訳) コールドブート攻撃は、電源が停止された直後に壊れたランダムアクセスメモリを検査する。 ほとんどのビットは破損しているが、ランダムな位置にある多くのビットはそうではない。 多くの暗号方式の鍵はメモリに拡張され、固定された冗長性を持つ長い鍵になるため、しばしば復元される。 本研究では,AES鍵に対する攻撃を適用するために,深誤り訂正符号手法の新たな暗号版とSATソルバ方式を併用する。 AESは線形および微分暗号解析に抵抗するように設計されたRijndael S-box要素から構成されるが,本手法はニューラルメッセージパッシングネットワークによって実装された計算グラフとしてAES鍵スケジューリングの新たな形式化を提供する。 以上の結果から,本手法は攻撃方法の精度を極めて高いマージンで上回ることがわかった。

Cold boot attacks inspect the corrupted random access memory soon after the power has been shut down. While most of the bits have been corrupted, many bits, at random locations, have not. Since the keys in many encryption schemes are being expanded in memory into longer keys with fixed redundancies, the keys can often be restored. In this work, we combine a novel cryptographic variant of a deep error correcting code technique with a modified SAT solver scheme to apply the attack on AES keys. Even though AES consists of Rijndael S-box elements, that are specifically designed to be resistant to linear and differential cryptanalysis, our method provides a novel formalization of the AES key scheduling as a computational graph, which is implemented by a neural message passing network. Our results show that our methods outperform the state of the art attack methods by a very large margin.
公開日: Wed, 9 Jun 2021 07:57:01 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
Itamar Zimerman * 1 Eliya Nachmani * 1 2 Lior Wolf 1 Itamar Zimerman * 1 Eliya Nachmani * 1 2 Lior Wolf 1 0.85
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] R C . 9 ] rc所属。 0.71
s c [ 1 v 6 7 8 4 0 sc [ 1 v 6 7 8 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Cold boot attacks inspect the corrupted random access memory soon after the power has been shut down. 概要 コールドブート攻撃は、電源が停止された直後に壊れたランダムアクセスメモリを検査する。 0.57
While most of the bits have been corrupted, many bits, at random locations, have not. ほとんどのビットは破損しているが、ランダムな位置にある多くのビットはそうではない。 0.72
Since the keys in many encryption schemes are being expanded in memory into longer keys with fixed redundancies, the keys can often be restored. 多くの暗号方式の鍵はメモリに拡張され、固定された冗長性を持つ長い鍵になるため、しばしば復元される。 0.75
In this work, we combine a novel cryptographic variant of a deep error correcting code technique with a modified SAT solver scheme to apply the attack on AES keys. 本研究では,AES鍵に対する攻撃を適用するために,深誤り訂正符号手法の新たな暗号版とSATソルバ方式を併用する。 0.71
Even though AES consists of Rijndael S-box elements, that are specifically designed to be resistant to linear and differential cryptanalysis, our method provides a novel formalization of the AES key scheduling as a computational graph, which is implemented by a neural message passing network. AESは線形および微分暗号解析に抵抗するように設計されたRijndael S-box要素から構成されるが,本手法はニューラルメッセージパッシングネットワークによって実装された計算グラフとしてAES鍵スケジューリングの新たな形式化を提供する。 0.82
Our results show that our methods outperform the state of the art attack methods by a very large margin. 以上の結果から,本手法は攻撃方法の精度を極めて高いマージンで上回ることがわかった。 0.59
1. Introduction Many cipher architectures use expanded keys in their code. 1. 序文 多くの暗号アーキテクチャはコードに拡張キーを使用する。 0.80
For reasons of efficiency, these algorithms do not re-calculate the expanded key with the expansion function each time a message is to be encrypted or decrypted. 効率性の理由から、これらのアルゴリズムは、メッセージが暗号化または復号化される度に拡張関数で拡張鍵を再計算しない。 0.80
Instead, it is written to some RAM device (such as DDR and SRAM), until it is used. 代わりに、あるRAMデバイス(DDRやSRAMなど)に、使用するまで書き込む。 0.60
These devices often induce a security leak: after the power is shut down (even if the device is damaged, deleted, or burned) parts of the data still exist in the memory. これらのデバイスは、しばしばセキュリティリークを引き起こす:電源が停止した後(デバイスが損傷、削除、あるいは燃やされたとしても)、データの一部がメモリに残っている。 0.79
This phenomenon is called data remanence (Gutmann, 2001; Skorobogatov, 2005). この現象はデータレマンス(Gutmann, 2001; Skorobogatov, 2005)と呼ばれる。 0.81
Its occurrence was established for a variety of memory devices (Yitbarek et al , 2017; Bauer et al , 2016). その発生は、様々なメモリデバイス(Yitbarek et al , 2017; Bauer et al , 2016)のために確立された。 0.87
A cold boot attack is a side-channel attack (Halderman et al , 2009), in which the attacker tries to recover the encryption コールドブート攻撃は、攻撃者が暗号化を回復しようとするサイドチャネル攻撃(Halderman et al , 2009)である。 0.72
*Equal contribution 1Tel Aviv University 2Facebook AI Research. ※寄付等 1Tel Aviv University 2Facebook AI Research 0.68
Itamar Zimerman <zimerman1@mail.tau.a c.il>, Eliya Nachmani <enk100@gmail.com>, Lior Wolf <liorwolf@gmail.com&g t;. Itamar Zimerman <zimerman1@mail.tau.a c.il>, Eliya Nachmani <enk100@gmail.com>, Lior Wolf <liorwolf@gmail.com&g t; 0.86
Correspondence to: Proceedings of the 38 th International Conference on Machine Learning, PMLR 139, 2021. 訳語 対応;対応 第38回機械学習国際会議(PMLR 139, 2021)の開催報告 0.54
Copyright 2021 by the author(s). 著作者による著作権2021。 0.53
key by exploiting the memory leakage and the redundancy of the key expansion function used by the encryption method. キーは、暗号化法で使用されるキー拡張関数のメモリリークと冗長性を利用する。 0.82
This attack is well-known, and defense methods for it have been heavily researched (Ooi & Kam, 2009). この攻撃はよく知られており、防衛方法が研究されている(Ooi & Kam, 2009)。 0.81
Vulnerable devices include computers and smartphones (CBT, a;b; M¨uller et al , 2012; CBT, c;d). 脆弱性のあるデバイスはコンピュータとスマートフォン(CBT, a;b; M suller et al , 2012; CBT, c;d)である。 0.77
Examples of encryption systems that have been broken by this attack include Microsoft’s BitLocker, Apple’s FileVault, Linux’s Dm-crypt, TrueCrypt, Google’s Android’s disk encryption, and many others. この攻撃で壊れた暗号化システムの例としては、MicrosoftのBitLocker、AppleのFileVault、LinuxのDm-crypt、TrueCrypt、GoogleのAndroidのディスク暗号化などがある。 0.75
The data remanence phenomena are often modeled in one of two ways: a theoretical model and a more practical one. データ永続現象は、理論モデルとより実用的な2つの方法の1つとしてモデル化されることが多い。 0.73
In both models, there is a tendency of decaying the bit values to the ground state, which can be 0 or 1. どちらのモデルでも、ビット値を基底状態へ減衰させる傾向があり、これは 0 か 1 になる。 0.70
For simplicity, we assume that 0 is the ground state. 単純さのため、0 は基底状態であると仮定する。 0.72
The strength of this trend depends on the hardware, the temperature, and the time that has elapsed since the power was turned off. この傾向の強さは、電源が切れてから経過したハードウェア、温度、時間に依存する。
訳抜け防止モード: この傾向の強さは、ハードウェア、温度、およびそれに依存する。 そして 電源が切れてから 経過した時間。
0.72
This model is formalized in the literature by the probability δ0 that a key-bit with a value of 1 on the original key will corrupt to value 0. このモデルは、元のキーに 1 の値を持つキービットが 0 の値に崩壊する確率 δ0 によって、文献で定式化される。 0.83
Common values in the literature are in the range of δ0 ∈ [0.3, 0.75]. 文献の一般的な値は δ0 ∈ [0.3, 0.75] の範囲である。 0.80
In the theoretical model, we assume that no bit will corrupt from 0 to 1. 理論モデルでは、ビットは 0 から 1 に分解されないと仮定する。 0.74
The realistic model accounts for some reading errors for bits with an original value of 0. 現実的なモデルは、元の値が0のビットの読み込みエラーを考慮に入れている。 0.71
Let δ1 be the probability that a keybit with an original value of 0 will corrupt to value 1. δ1 を 0 の元の値を持つ鍵ビットが 1 の値に崩壊する確率とする。 0.81
In the theoretical model δ1 = 0.0, and in the realistic model δ1 ∈ {0.0005, 0.001}. 理論モデル δ1 = 0.0 および現実モデル δ1 ∈ {0.0005, 0.001} において。 0.87
The main computational problem is the one of recovering an encryption key from its corrupted key by using the redundancy that is induced by the key expansion function. 主な計算問題は、鍵展開関数によって誘導される冗長性を用いて暗号鍵を破損した鍵から復元するものである。 0.84
In this paper, we present a new algorithmic method based on deep learning for the key recovering problem. 本稿では,鍵回復問題に対する深層学習に基づく新しいアルゴリズム手法を提案する。 0.77
While the previous leading methods are based completely on SAT solvers, our method contains a deep network that provides an estimate of the solution, which is subsequently used to seed the SAT solver. 従来の先行手法は完全にSATソルバに基づいているが,本手法は解の推定を行うディープネットワークを含んでおり,SATソルバのシードに使用される。 0.67
The network employs techniques from the field of error-correcting codes, which are further enhanced by cryptographic components that we term as neural S-boxes. このネットワークはエラー訂正符号の分野のテクニックを採用しており、これは我々が神経Sボックスと呼ぶ暗号コンポーネントによってさらに強化されている。 0.60
Our method is employed in order to drastically improve an existing algorithm for recovering AES-256 keys (Daemen & Rijmen, 1999). 本手法は既存のaes-256鍵回収アルゴリズム(daemen & rijmen, 1999)を劇的に改善するために用いられる。 0.83
AES is the most popular symmetric cipher and it considered to be completely secure. AESは最も一般的な対称暗号であり、完全に安全であると考えられている。 0.69
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
2. Related Work We discuss cold boot attacks and then neural networks for error correcting codes. 2. 関連する作業 コールドブート攻撃と、エラー訂正コードのためのニューラルネットワークについて論じる。 0.77
The latter provides a solid foundation for our technique. 後者は、我々の技術に対する確固たる基盤を提供します。 0.55
2.1. Cold Boot Attack 2.1. コールドブーツ攻撃 0.64
The first algorithm invented for cold boot attacks was by Halderman et al (2009). コールドブート攻撃のために最初に発明されたアルゴリズムは、Halderman et al (2009) である。 0.63
Using techniques from the field of error correcting codes, a method was presented for recovering DES, AES, tweak and RSA keys. 誤り訂正符号の分野からのテクニックを用いて、DES、AES、微調整、RSAキーの復元を行う方法が提示された。 0.70
Subsequent methods were based on a variety of techniques and ideas, such as integer programming and solving polynomial systems of equations (Albrecht & Cid, 2011), SAT solvers (Kamal & Youssef, 2010) , MAX-SAT solvers (Liao et al , 2013) and more (Tsow, 2009), (Tanigaki & Kunihiro, 2015). その後の手法は、整数計画や方程式の多項式系の解法(albrecht & cid, 2011)、satソルバ(kamal & youssef, 2010)、max-satソルバ(liao et al , 2013)、その他(tsow, 2009)、(tanigaki & kunihiro, 2015)といった様々な手法やアイデアに基づいていた。 0.76
Our work focuses on AES-256, for which we are aware of two existing contributions. 私たちの研究は、既存の2つのコントリビューションを認識しているAES-256に焦点を当てています。 0.51
The work of Tsow (2009) recovers AES key schedules from decayed memory images. tsow (2009) は、崩壊したメモリイメージから aes キースケジュールを復元する。 0.71
The TSOW algorithm was presented for the theoretical model, and the result was a success rate of 99.4% for 65% decay rates. tsowアルゴリズムが理論モデルとして提示され、結果は65%の減衰率で99.4%の成功率となった。 0.76
However for 70% the success rate was 0.0. しかし、70%は成功率0.0。 0.75
Tanigaki & Kunihiro (2015) presented an algorithm for the realistic model, which is based on a combination of the TSOW Algorithm and maximum likelihood approach. Taigaki & Kunihiro (2015) は、TSOWアルゴリズムと最大極大アプローチを組み合わせた現実的モデルのためのアルゴリズムを提示した。 0.67
A theoretical analysis showed that δ0 must be smaller than 0.75, when δ1 = 0.001. 理論解析により、δ1 = 0.001 のとき、δ0 は 0.75 より小さくなければならないことが示された。
訳抜け防止モード: 理論的分析によると δ0 は 0.75 未満でなければならず、δ1 = 0.001 である。
0.65
We note that our success rate is not negligible in this setting and compare with the method extensively in our experiments. この設定では,我々の成功率は無視できないことに留意し,本手法との比較を行った。 0.76
There are considerably more contributions for the AES-128 cipher, which presents an easier problem since the search space is reduced drastically with smaller keys. aes-128暗号には、より小さな鍵で検索空間が大幅に縮小されるため、より簡単な問題を示す多くの貢献がある。 0.74
Halderman et al (2009) had a 70 % success rate for δ0 = 0.15 and δ1 = 0.001. Halderman et al (2009) は δ0 = 0.15 と δ1 = 0.001 の70%の成功率を示した。 0.77
This result was improved by Tsow (2009) with the TSOW algorithm. この結果は Tsow (2009) によって TSOW アルゴリズムによって改善された。 0.74
In the work of Kamal & Youssef (2010) and Liao et al (2013), two SAT-based algorithms were proposed. Kamal & Youssef (2010) と Liao et al (2013) の2つのSATベースのアルゴリズムが提案された。 0.75
The first algorithm was designed for the theoretical decay model, and achieved a success rate of 100% for δ0 = 0.78%. 最初のアルゴリズムは理論崩壊モデルのために設計され、δ0 = 0.78%で100%の成功率を達成した。 0.80
However for 80% the results were limited. しかし、その結果は80%に留まった。 0.72
The second algorithm was designed for the realistic model, and is based on a partial MAX-SAT solver. 第2のアルゴリズムは現実的なモデルのために設計され、部分的なMAX-SATソルバに基づいている。 0.69
The success rate of the algorithm was 100% for δ0 = 0.76 and δ1 = 0.001. アルゴリズムの成功率は δ0 = 0.76 と δ1 = 0.001 に対して100%であった。 0.75
Due to this success on the smaller keys, we implemented both the SAT solver and the MAX-SAT solver techniques for the aes-256 keys, and compare the results to our method. この小さなキーでの成功により、satソルバとaes-256キーのmax-satソルバ技術の両方を実装し、結果を本手法と比較した。 0.69
2.2. Error Correcting Codes with Deep Learning 2.2. 深層学習による誤り訂正符号 0.74
Deep learning was applied to various error correcting codes over the past few years. ディープラーニングは、過去数年間に様々なエラー訂正コードに適用された。 0.72
Polar codes (Tal & Vardy, 2013) which are use in 5G cellular communication, can be decoded 5Gセル通信に使用される極性符号(Tal & Vardy, 2013)を復号することができる。 0.83
with neural networks with neural successive cancellation decoding (Doan et al , 2018; Gross et al , 2020). ニューラルネットワークとニューラルネットワークによる逐次キャンセル復号(Doan et al , 2018; Gross et al , 2020)。 0.70
Moreover, an improved deep Polar decoding is introduced in (Gruber et al , 2017; Xu et al , 2017; Teng et al , 2019). さらに、改良されたディープ極性復号法が導入された(Gruber et al , 2017; Xu et al , 2017; Teng et al , 2019)。 0.82
In (An et al , 2020), the Reed-Solomon neural decoder is introduced, which estimates the error of the received codewords, and adjust itself to do more accurate decoding. An et al , 2020では、Reed-Solomonニューラルデコーダが導入され、受信したコードワードのエラーを推定し、より正確なデコードを行うように調整する。 0.75
Neural Bose–Chaudhuri–Hocquenghem (BCH) codes decoding is introduced in (Kamassury & Silva, 2020; Nachmani & Wolf, 2019; Raviv et al , 2020). Neural Bose–Chaudhuri–Hocquenghem (BCH) 符号は (Kamassury & Silva, 2020; Nachmani & Wolf, 2019; Raviv et al , 2020) で導入された。 0.90
Low-Density-Parity-C heck (LDPC) neural decoding is introduced in (Habib et al , 2020). 低密度パリティチェック(ldpc)ニューラルデコードを導入する(habib et al , 2020)。 0.60
The paper demonstrates a novel method for sequential update policy in the Tanner graph. 本稿では,Tanner グラフにおける逐次更新ポリシーの新たな方法を示す。 0.72
In (Jiang et al , 2019) a deep Turbo autoencoder is introduced for point-to-point communication channels. Jiang et al , 2019では、ポイントツーポイント通信チャネルにディープターボオートエンコーダを導入している。 0.63
Furthermore, (Kim et al , 2018a;b) present a novel method for designing new error correcting codes by neural networks. さらに、(Kim et al , 2018a;b)ニューラルネットワークによる新しい誤り訂正符号を設計するための新しい手法を提案する。 0.74
In (Caciularu & Burshtein, 2020) a neural channel equalization and decoding using variational autoencoders is introduced. Caciularu & Burshtein, 2020)では、変分オートエンコーダを用いた神経チャネルの等化と復号が導入された。 0.70
A deep soft interference cancellation for MIMO Detection are present in (Shlezinger et al , 2020). MIMO検出のための深部軟弱干渉キャンセルがShlezinger et al , 2020に存在している。 0.70
In this work, we will focus on neural belief propagation decoding, as described by Nachmani et al (2016). 本研究では,nachmani et al (2016) が記述したように,神経伝達伝達のデコードに焦点をあてる。 0.69
This work demonstrated that short block codes, with up to a few thousand bits, can be better decoded by a neural network than by the vanilla belief propagation algorithm that the network is based on. この研究は、数千ビットまでの短いブロック符号は、ネットワークがベースとするバニラ信念伝播アルゴリズムよりも、ニューラルネットワークによってより良い復号化が可能であることを証明した。 0.82
This method is highly relevant for correcting AES corrupted keys and cold boot attacks, since the length of the AES expansion key has a few thousand bits. この方法は、AES拡張キーの長さが数千ビットであるため、AESの破損キーとコールドブート攻撃の修正に非常に重要である。 0.79
3. Background 3.1. 3. 背番号3.1。 0.59
AES-256 Key Expansion Function AES-256キー展開機能 0.80
The AES algorithm (Daemen & Rijmen, 1999) is based on the key expansion function f, which operates on a random 256-bit initial key AESアルゴリズム(Daemen & Rijmen, 1999)は、256ビットの初期鍵をランダムに操作するキー展開関数fに基づいている。 0.86
f : {0, 1}256 → {0, 1}1920 f : {0, 1}256 → {0, 1}1920 0.85
(1) f is computed in iterations, also known as rounds. (1) fは繰り返し計算され、ラウンドとも呼ばれる。 0.81
In each iteration, 128 bits of the expansion are calculated from the previous bits. 各イテレーションにおいて、前のビットから拡張の128ビットを算出する。 0.73
The calculation consists of both linear and non-linear operations. 計算は線形演算と非線形演算の両方からなる。 0.80
The non-linear ones are called the Rijndeael substitution box or S-box for short. 線型でないものは、短くはRijndeael置換箱またはS-boxと呼ばれる。 0.58
The Rijndeael S-box function is described in detail in Chapter 4.2.1 of (Daemen & Rijmen, 1999) and it is usually implemented as a look-up-table. Rijndeael S-box 関数は (Daemen & Rijmen, 1999) の第4.2.1章で詳細に記述され、通常ルックアップテーブルとして実装される。 0.76
It is composed of two transformations: (i) an affine transformation and (ii) Nyberg S-box transformation (Nyberg, 1991). i) アフィン変換と(ii)Nyberg S-box変換の2つの変換から構成される(Nyberg, 1991)。
訳抜け防止モード: それは2つの変換からなる: ( i ) アフィン変換 そして (ii ) Nyberg S - box transformation (Nyberg, 1991) である。
0.80
The Nyberg S-box transformation is a mapping of an input vector to its multiplicative inverse on the Rijndael finite field: x → x−1 in ナイバーグ s-ボックス変換 (nyberg s-box transformation) は、入力ベクトルからリジャンデル有限体上の乗法逆への写像である: x → x−1 in 0.64
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
GF (28). This transformation is known as a perfect nonlinear transformation and satisfies certain security criteria. GF (28)。 この変換は完全な非線形変換として知られ、特定のセキュリティ基準を満たす。 0.69
We will use the following notations: 以下の表記を用いる。 0.48
1. Denote the expanded key bits as ˆw := (w0, .., wn−1), where n is the size of the expanded key, which is equal to 1920. 1. 拡張鍵ビットは、n は拡大鍵の大きさであり、1920 と同値である sw := (w0, .., wn−1) と記述する。 0.81
Denote the byte wi, ..., wi+7 as Wi, and the double word wi, ..., wi+31 as W (cid:48) i (j) = wi+j. バイト wi, ..., wi+7 を Wi とし、ダブルワード wi, ..., wi+31 を W (cid:48) i (j) = wi+j とする。 0.94
2. Let S : {0, 1}8 → {0, 1}8 be a Rinjdeal S-box. 2. S : {0, 1}8 → {0, 1}8 を Rinjdeal S-box とする。 0.86
We can extend the definition of S to an input vector of 32 bits, where the result is obtained by applying S on each byte separately. s の定義を32ビットの入力ベクトルに拡張でき、各バイトに s を適用することで結果が得られる。
訳抜け防止モード: S の定義を 32 ビットの入力ベクトルに拡張することができる。 ここでは、各バイトにSを個別に適用して結果を得る。
0.80
i , so W (cid:48) i, so W (cid:48) 0.91
3. c = c1, ..., c10 is a vector of fixed values that is defined in the RCON table which is given in (Daemen & Rijmen, 1999). 3. c = c1, ..., c10 は (daemen & rijmen, 1999) で与えられる rcon 表で定義される固定値のベクトルである。 0.76
This constant is used in the key expansion function f. この定数は鍵拡大関数 f で用いられる。 0.72
4. R is the following rotation function: 4. R は次の回転関数である。 0.85
R(w1, ..., w7, w8, ..., w32) = (w8, ..., w32, w1, ..., w7) (2) R(w1, ..., w7, w8, ..., w32) = (w8, ..., w32, w1, ..., w7) (2) 0.96
which is used in the key expansion function f. キー展開関数 f で使われます 0.59
5. k is the initial key size 256, and b is the block size 128. 5. kは初期鍵サイズ256、bはブロックサイズ128である。 0.77
6. % is the modulo operator and ⊕ is XOR operator. 6. % はモジュロ演算子であり、t は XOR 演算子である。 0.74
7. For each key index i, we denote the round number as b(cid:99), and the double word number as d(i) = 7. 各キーインデックス i について、ラウンド番号を b(cid:99) とし、ダブルワード番号を d(i) = とする。 0.82
r(i) = (cid:98) i (cid:98) i 32(cid:99) r(i) = (cid:98) i (cid:98) i 32(cid:99) 0.88
8. τ = n−k function. 8. τ = n−k 関数。 0.77
b is the number of rounds in the key expansion b 鍵となる展開のラウンド数です 0.71
The key expansion function is critical to understanding our method. キー展開関数は、我々の方法を理解するために重要である。 0.64
Here we describe the constraints that this function inducts on the key bits. ここでは、この関数が鍵ビット上で誘導する制約について述べる。 0.66
For the i-bit in the key, the constraints are given by: 1. キーのi-bitに対して、制約は次のように与えられる。 0.65
∀i : k ≤ i < n, i%b < 32, r(i)%2 = 0 : ~i : k ≤ i < n, i%b < 32, r(i)%2 = 0 : 0.77
wi = wi−k ⊕ S(R(W (cid:48) wi = wi−k > S(R(W(cid:48)) 0.79
d(i−32)))(i%b) ⊕ c r(i) d(i−32)))(i%b) = c r(i) 0.92
2 2. ∀i : k ≤ i < n, i%b < 32, r(i)%2 = 1 : 2 2. ~i : k ≤ i < n, i%b < 32, r(i)%2 = 1 : 0.83
wi = wi−k ⊕ S(W (cid:48) wi = wi-k > S(W (cid:48) 0.80
d(i−32))(i%b) d(i−32))(i%b) 1.00
3. ∀i : k ≤ i < n, i%b ≥ 32 : 3. i : k ≤ i < n, i%b ≥ 32 : である。 0.85
wi = wi−k ⊕ wi−32 wi = wi-k > wi-32 0.55
(3) (4) (5) (3) (4) (5) 0.85
3.2. Error Correcting Codes with Deep Belief 3.2. 深い信念を持つ誤り訂正符号 0.69
Propagation A deep learning decoder for error correcting codes with a belief propagation algorithm was introduced in (Nachmani et al , 2016). 伝播 信念伝達アルゴリズムを用いた誤り訂正符号のためのディープラーニングデコーダが導入された(nachmani et al , 2016)。 0.67
The decoding process uses the well-known belief propagation method and adds learnable weight to the algorithm. 復号化プロセスはよく知られた信念伝播法を使用し、アルゴリズムに学習可能な重みを付加する。
訳抜け防止モード: well- known belief propagation 法を用いた復号法 アルゴリズムに学習可能な重みを加えます。
0.69
Specifically, they add weights to the edges in the Trellis graph. 具体的には、トレリスグラフのエッジに重みを加える。 0.63
For a linear block code with k information bits and n output bits, the parity check matrix of the linear block code H has a size of (n − k) × n. The deep neural Belief propagation algorithm that was introduced in (Nachmani et al , 2016) has an input layer of n bits. k 個の情報ビットと n 個の出力ビットを持つ線形ブロック符号に対して、線形ブロック符号 h のパリティチェック行列は (n − k) × n の大きさである。
訳抜け防止モード: k 情報ビットと n 出力ビットを持つ線形ブロック符号について。 線形ブロック符号 H のパリティチェック行列は (n − k ) × n である。 2016年に導入された(Nachmani et al, 2016)。 nビットの入力層を持つ。
0.61
In the architecture that is defined in (Nachmani et al , 2016) there are two types of hidden layers which are interleaved: (i) variable layer for odd index layer j and (ii) check layer for even index layer j. Nachmani et al , 2016) で定義されたアーキテクチャでは、インターリーブされた隠蔽層が2種類ある: (i) 奇指数層 j の可変層と、偶指数層 j のチェック層である。
訳抜け防止モード: 建築において nachmani et al, 2016)で定義されている。 インターリーブされる隠れレイヤには2つのタイプがある: (i) 奇数インデックス層 j の可変層 そして(ii)インデックス層jでさえチェック層です。
0.82
For notational convenience, we assume that the parity check matrix H is regular, meaning, the sum over each row and column is fixed and denoted by dv and dc respectively. 表記の便宜上、パリティチェック行列 H が正則であると仮定すると、各行と列の和はそれぞれ dv と dc で固定される。 0.61
Each column of the parity check matrix H is corresponding to one bit of the codeword and obtains dv variable nodes in each variable layer. パリティチェック行列Hの各列は、コードワードの1ビットに対応し、各変数層内のdv変数ノードを取得する。 0.72
Therefore, the total number of variable processing units in each variable layer is E = dvn. したがって、各可変層における可変処理単位の総数は E = dvn である。 0.90
Similarly, each check layer has E = (n − k) × dc check processing units. 同様に、各チェック層はE = (n − k) × dc チェック処理ユニットを持つ。 0.87
During the decoding process, the messages propagate from the variable layer to the check layers iteratively, where the input to the network is the log likelihood ratio (LLR) (cid:96) ∈ Rn of each bit: 復号処理の間、メッセージは可変層からチェック層へと反復的に伝播し、そこでネットワークへの入力は各ビットのlog likelihood ratio (llr) (cid:96) ∈ rnである。 0.77
(cid:96)v = log (cid:96)v = log 0.92
Pr (cv = 1|yv) Pr (cv = 0|yv) Pr (cv = 1|yv) Pr (cv = 0|yv) 0.90
, (6) where (cid:96)v is the log likelihood ratio for each received signal yv and cv is the bit that we want to recover. , (6) ここで (cid:96)v は受信信号 yv と cv の対数確率比であり、我々が回復したいビットである。 0.83
Denote xj as the vector messages that propagate in the Trellis graph. トレリスグラフで伝播するベクトルメッセージとして xj を記述する。 0.71
For j = 1 and for odd j, the computation in each variable node is: j = 1 で奇数 j の場合、各変数ノードの計算は次のようになる。 0.77
(cid:88)  (cid:88)  0.82
we(cid:48)xj−1 e(cid:48) we(cid:48)xj−1 e(cid:48) 0.74
e(cid:48)∈N (v)\{(c,v)} e(cid:48)servletn (v)\{(c,v)} である。 0.84
e = xj xj (c,v) = tanh e = xj xj (c,v) = tanh 0.85
 1 2 lv +  1 2 slv + 0.76
Note that each equation contains three XOR operations between variables, and in some of the equations there is a XOR with a constant value. 各方程式は変数間の3つのXOR演算を含み、いくつかの方程式では定数を持つXORが存在することに注意。 0.77
e = xj xj (c,v) = 2arctanh e = xj xj (c,v) = 2arctanh 0.90
(7) where N (v) = {(c, v)|H(c, v) = 1} is the set of all edges that are connected to v and each variable node indexed the edge e = (c, v) in the Tanner graph. (7) ここで n (v) = {(c, v)|h(c, v) = 1} は v に接続されたすべての辺の集合であり、各変数ノードはタナーグラフの辺 e = (c, v) をインデックス化した。 0.87
we is a set of learnable weights. 私たちは学習可能な重みのセットです 0.71
For even layer j, each check layer performs this computation: j層でさえ、各チェック層がこの計算を実行する。 0.74
 (cid:89) e(cid:48)∈N (c)\{(c,v)} (cid:89) e(cid:48)servletn (c)\{(c,v)} である。 0.84
 (8) xj−1 e(cid:48)  (8) xj−1 e(cid:48) 0.78
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
where for each row c of the parity check matrix H, N (c) = {(c, v)|H(c, v) = 1} is the corresponding set of edges. ここで、パリティチェック行列 H の各行 c に対して、N (c) = {(c, v)|H(c, v) = 1} は対応するエッジの集合である。 0.80
Overall, in the deep neural network that is proposed in (Nachmani et al , 2016) there are L layers from each type (i.e. 全体として、Nachmani et al , 2016で提案されているディープニューラルネットワークには、各タイプ(すなわち、)からL層が存在する。 0.71
variable and check). The last layer is a marginalization layer with a sigmoid activation function which outputs n bits. 変数とチェック)。 最後の層はnビットを出力するシグモイド活性化関数を備えた辺縁化層である。 0.74
The v-th output bit is given by: v番目の出力ビットは: 0.76
ov = σ ¯we(cid:48)x2L e(cid:48) ov = σ swe(cid:48)x2L e(cid:48) 0.77
e(cid:48)∈N (v) e(cid:48)servletn (v) 0.80
where ¯we(cid:48) is another set of learnable weights. ここで シュウェ (cid:48) は学習可能な重みの集まりです 0.51
Moreover, in each odd layer j, marginalization is performed by: さらに、各奇層jにおいて、以下により辺化を行う。 0.55
(9) (10) lv + lv + (9) (10) slv + slv + 0.73
(cid:88) (cid:88) (cid:88) (cid:88) 0.78
 ,  oj v = σ  ,  oj v = σ 0.85
¯we(cid:48)xj e(cid:48) は (cid:48)xj e(cid:48) 0.80
e(cid:48)∈N (v) e(cid:48)servletn (v) 0.80
The loss function is cross entropy on the error after each j marginalization: 損失関数は、各j辺化後の誤差のクロスエントロピーである。 0.75
L(cid:88) n(cid:88) l(cid:88) n(cid:88) 0.80
h=0 v=1 L = − 1 n h=0 v=1 L = − 1 n 0.68
where cv is the ground truth bit. cvが真実のビットであるところ。 0.69
cv log(o2h+1 cv log(o2h+1 0.65
v ) + (1 − cv) log(1 − o2h+1 (11) v ) + (1 − cv) log(1 − o2h+1 (11) 0.90
) v 4. Method Our architecture contains two components: (i) A variant of neural belief propagation decoder with neural S-box layers and (ii) a Partial MAX-SAT solver. ) v 4. Method our architecture contains two components: (i) Avariant of Neural belief propagation decoder with Neural S-box layer and (ii) a partial MAX-SAT solver。 0.85
The proposed model is depicted in Figure 1. 提案したモデルは図1に示す。 0.82
The input to the neural belief propagation is the corrupted bits l = l0, .., ln−1 and it predicts an approximation for the original key o = o0, .., on−1. 神経信念伝播の入力は腐敗したビット l = l0, ., ln−1 であり、元の鍵 o = o0, ., on−1 の近似を予測できる。 0.80
Formally, the value of the i-th bit in the original key was 1 with an approximated probability of oi. 形式的には、元のキーのiビットの値は1で、おおよその確率は1である。 0.73
The input to the Partial MAX-SAT solver is a CNF formula with part of it defined by o(cid:48) ⊂ o , where the probabilities in o(cid:48) correspond to bits that the network has high confidence in their values (approximately 99%). 部分的max-satソルバへの入力は、その一部が o(cid:48) で定義されるcnf公式であり、o(cid:48) の確率はネットワークがその値に高い信頼度を持つビットに対応する(約99%)。 0.75
The output of the Partial MAX-SAT solver is the estimation of the desired key. 部分MAX-SATソルバの出力は、所望のキーを推定する。 0.69
4.1. Rijndael S-box as Neural Network and the S-box 4.1. ニューラルネットワークとしてのRijndael S-boxとS-box 0.65
Layer The belief propagation neural network is defined by a parity check matrix H. However, the AES constraints in Eq 3,4 are non-linear, since they include the S-box transformation. 層 信念伝播ニューラルネットワークはパリティチェック行列 H で定義されるが、Eq 3,4 の AES 制約は S-ボックス変換を含むため非線形である。 0.72
Therefore, there is no parity check matrix H such that Hl = 0. したがって、Hl = 0 となるパリティチェック行列 H は存在しない。 0.77
In order to convert these equations to linear form, one can change the variables by concatenating W s(cid:48) (cid:48) t ) to これらの方程式を線型形式に変換するために、w s(cid:48) (cid:48) t ) を連結して変数を変更することができる。 0.71
:= S(W t Wi, and construct a parity check matrix H for the new variables. :=S(W) t Wi, and construct a parity check matrix H for the new variables。 0.85
However, since the S-box transformation is defined by boolean vectors, and the neural belief propagation uses fractions values another problem arises, one cannot calculate W s(cid:48) Therefore, in order to obtain a continuous and differentiable version of the Rijndael S-box, we first train a neural network Snn to mimic it: しかし、s-ボックス変換はブールベクトルによって定義され、ニューラルネットワークの信念伝達は分数値を使用するので、w(cid:48)を計算できないので、rijndael s-boxの連続的かつ微分可能なバージョンを得るために、まずニューラルネットワークsnを訓練してそれを模倣する。 0.68
t between layers of the neural belief propagation. tは神経信念の伝播の層の間にある。 0.61
Snn : x1, ..., x8 → y1, ..., y256 Snn : x1, ..., x8 → y1, ..., y256 0.97
(12) where xi ∈ [0, 1] and yi ∈ [0, 1]. (12) ここで xi ∈ [0, 1] と yi ∈ [0, 1] である。 0.91
The network has three fully connected layers with 512 ReLU activations. ネットワークには512のreluアクティベーションを持つ3つの完全接続層がある。 0.63
It is trained with a cross entropy loss function. クロスエントロピー損失関数で訓練される。 0.59
An argmax operation is performed on the output y, to obtain z1, ..., z8, where it achieves 100% accuracy. 出力y上でargmax演算を行い、100%精度が得られるz1,...,z8を得る。
訳抜け防止モード: 出力yにargmax演算を行う。 z1, ..., z8を得るには 100%の精度が得られます
0.75
We can extend the definition of Snn to an input vector of 32 bits, where the result is obtained by applying Snn on each byte separately. snnの定義を32ビットの入力ベクトルに拡張でき、各バイトにsnnを別々に適用することで結果が得られる。
訳抜け防止モード: Snnの定義を32ビットの入力ベクトルに拡張することができる。 それぞれのバイトにSnnを個別に適用することで結果が得られる。
0.84
While the neural s-box is applied to bytes, the s-box layer is applied to the entire expanded key, which is constructed from a combination of neural S-boxes. 神経s-boxがバイトに適用される間、s-box層は、神経S-boxの組み合わせから構築された拡張キー全体に適用される。 0.71
Given an input vector ˆx ∈ [−1, 1]n, the s-box layer calculates the output vector ˆs ∈ [−1, 1]n+32τ +1 which is obtained by concatenation of the input with 32τ elements, which are calculated by applying the neural S-boxes on the corresponding bits of the input as follows: 1. 入力ベクトル(x ∈ [−1, 1]n)が与えられたとき、s-box層は入力と32τ要素を連結して得られる出力ベクトル(s ∈ [−1, 1]n+32τ +1)を演算し、入力の対応するビットにニューラルネットワークS-boxを適用して計算する。 0.82
∀i ∈ [0, n − 1] : ˆsi = ˆxi 2. yi ∈ [0, n − 1] : ssi = sxi 2 である。 0.74
∀i ∈ [n, (n + 32τ ) − 2], i%32 = 0 : i>i ∈ [n, (n + 32τ ) − 2], i%32 = 0 : 0.84
(ˆsi, .., ˆsi+31) = Snn(ˆxsi(i), .., ˆxsi(i)+31) where si(i) = b((i − n)%32) + k − 32 si(i) = b((i − n)%32) + k − 32 のとき、sn(xsi(i), . . .xsi(i)+31) は si(i) = b((i − n)%32) + k − 32 である。 0.74
3. The last bit in ˆs is 1 (namely ˆsn+32τ−1 = 1) and it is 3. 最後のビットは 1 であり(つまり、sn+32τ−1 = 1)、そのビットは 1 である。 0.71
used as a bias factor. バイアス要因として使われました 0.56
There are τ additional rounds on the AES-256 key expansion, on each round 4 S-boxes are calculated. AES-256キー展開にはτの追加ラウンドがあり、各ラウンド4Sボックスで計算される。 0.77
Overall, each s-box layer consist of 4τ neural S-box instances. 全体として、各s-box層は4τニューラルS-boxインスタンスから構成される。 0.51
4.2. Tailoring the Neural Belief Propagation 4.2. 神経信念伝達の調整 0.61
To predict the values of the AES key from the corrupted keys, a naive way is to search the key that is close to the corrupted one over the large space of the existing key. 破損したキーからAESキーの値を予測するには、既存のキーの広い空間にわたって、破損したキーに近いキーを探索する直感的な方法がある。 0.79
However, when the decay percentage is high, the search space is extremely large, and by design, the key expansion function provides resistance against attacks in which part of the cipher key is known, see Chapter 7.5 in (Daemen & Rijmen, 1999). しかし、減衰率が高い場合、探索空間は非常に大きく、設計上、鍵拡張関数は暗号鍵の一部が知られている攻撃に対して抵抗を与える(daemen & rijmen, 1999)。
訳抜け防止モード: しかし、減衰率が高い場合、探索空間は非常に大きい。 そして、設計上、鍵拡張関数は暗号鍵の一部が知られている攻撃に対して抵抗を与える。 第7.5章 (daemen & rijmen, 1999)を参照。
0.75
Instead, due to the resemblance of the AES keys and the key role of the XOR operation, we rely on network-based error 代わりに、AESキーとXOR操作のキーロールが似ているため、ネットワークベースのエラーに依存します。 0.70
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
Figure 1. An overview of our method for a neural cold boot attack. 図1。 ニューラルコールドブート攻撃法の概要 0.51
The input is the initial key of 256 bits, then the AES key expansion function f expands it to 1920 key. 入力は256ビットの初期鍵であり、次に aes キー拡張関数 f はそれを 1920 ビットに拡張する。 0.82
The expanded key was corrupted by the cold boot model. 拡張キーはコールドブートモデルによって破損した。 0.71
The corrupted key is inserted into a cryptographic neural belief propagation decoder whose constructs form a novel formalization of the AES key expansion function. 劣化した鍵は、AESキー展開関数の新規な形式化を形成する暗号的ニューラル信念伝搬デコーダに挿入される。 0.81
The most accurate nl + nh bits are then selected in insert with the corrupted key to MAX-SAT solver. 最も正確な nl + nh ビットは MAX-SAT ソルバに鍵を挿入して選択される。 0.79
The MAX-SAT solver produces the corrected AES key. MAX-SATソルバは修正AESキーを生成する。 0.76
correcting code methods that are suitable for block ciphers. ブロック暗号に適したコードメソッドの修正。 0.68
Such codes often employ expansion functions, which are, however, linear. このような符号はしばしば拡張関数を使用し、それは線形である。 0.65
We modify the neural belief propagation architecture as follows: (i) adding a S-box layer after each check layer, (ii) modify the layer structure: replacing (cid:96)v in Eq 7, 9, 10 with the output of the marginalization layer oj−1 on the previous iteration after it goes through the S-box v layer. i) 各チェック層にsボックス層を追加すること、(ii)層構造を変更すること、(cid:96)vをeq7,9,10で置き換えること、(cid:96)vをsボックスv層を通過する前のイテレーションでマージン化層oj−1の出力に置き換えること。 0.72
Figure 2 we depict the architecture of the modified neural belief propagation. 図2 修正された神経信念伝播のアーキテクチャを描きます。 0.72
4.3. Defining the ECC constraints 4.3. ECC制約の定義 0.74
Denote the S-box mimicking network output, given by a vector Wi, as Zi = (zi, .., zi+7) := Snn(Wi). ベクトルWiによって与えられるネットワーク出力を模倣するSボックスについて、Zi = (zi, .., zi+7) := Snn(Wi) と記す。 0.83
We denote the concatenation of Zi, Zi+8, Zi+16, Zi+24 as ˆZi. Zi, Zi+8, Zi+16, Zi+24 の連結を Zi として表す。 0.68
We can rearrange the constraints in Eq 3, 4, 5 as follows: 1. eq 3, 4, 5 の制約を次のように並べ替えることができる。 0.72
∀i : k ≤ i < n, i%b < 32, r(i)%2 = 0 : ~i : k ≤ i < n, i%b < 32, r(i)%2 = 0 : 0.77
0 = wi ⊕ wi−k ⊕ Snn(R(W 0 = wi, wi−k, Snn(R(W)) 0.80
(cid:48) d(i−32)))(i%b) ⊕ c r(i) 2(13) (cid:48) d(i−32)))(i%b) は c r(i) 2(13) である。 0.84
2. ∀i : k ≤ i < n, i%b < 32, r(i)%2 = 1 : 2. ~i : k ≤ i < n, i%b < 32, r(i)%2 = 1 : 0.81
0 = wi ⊕ wi−k ⊕ Snn(W 0 = wi, wi-k, Snn(W) 0.82
(cid:48) d(i−32))(i%b) (cid:48) d(i−32))(i%b) 0.92
(14) 3. ∀i : k ≤ i < n, i%b ≥ 32 : (14) 3. i : k ≤ i < n, i%b ≥ 32 : である。 0.85
  0.85
(cid:40) 0 = wi ⊕ wi−k ⊕ wi−32 (cid:40) 0=wi-k/wi-32 0.70
(15) ui = c r(i) 2 (15) ui = c r(i) 2 0.85
, 0, if i%b < 32, r(i)%2 = 0 otherwise , 0, i%b < 32, r(i)%2 = 0 であれば 0.85
We define x as the concatenate of w and ˆZi: x = (w0, .., wn−1, ˆZk−32, ˆZk−32+b, ˆZk−32+2b, .., ˆZn−32+τ b). x = (w0, ., wn−1, sZk−32, sZk−32+b, sZk−32+2b, ., sZn−32+τb) である。 0.88
By considering the XOR operation as the addition operator over {0, 1}2, assuming for simplicity that R is the identity XOR 演算を {0, 1}2 上の加算演算子として考えることで、R が単位元であることの単純さを仮定する。 0.70
Note that without assuming that R (in Eq 13) is the identity function, rather than a rotation function, one can rewrite the same formulation with a single difference, applying permutation on the vector x, or modify the equations where 注意すべきは、r(eq 13) が回転関数ではなく同一関数であると仮定せずに、同じ定式を1つの差分で書き直し、ベクトル x に置換を適用するか、あるいは方程式を修正できる点である。 0.80
function, so Snn(R( ˆWd(i−32))) = ˆZi and replacing Snn(W (cid:48) i ) with ˆZi, one can transform Eq 13, 14, 15 to a matrix form using a matrix H(cid:48) and a vector u, such that: したがって、関数 Snn(R( >Wd(i−32)) = >Zi で Snn(W (cid:48) i ) を >Zi に置き換えると、Eq 13, 14, 15 を行列 H(cid:48) とベクトル u を使って行列形式に変換することができる。 0.82
H(cid:48)x + u = 0 H(cid:48)x + u = 0 0.98
(16) where u is a constant vector that consists of the RCON values ci and zeros and H(cid:48) is a matrix with n − k rows, as the number of bits calculated by the expansion function, and n + 32τ columns, as the number of variables. (16) u は RCON の値 ci と 0 からなる定数ベクトルであり、H(cid:48) は n − k 行の行列であり、拡張関数によって計算されるビット数、n + 32τ 列は変数数である。 0.80
∀i, j : 0 ≤ i < n − k, 0 ≤ j < (n + 32τ ) i, j : 0 ≤ i < n − k, 0 ≤ j < (n + 32τ ) である。 0.94
H(cid:48)(i, j) = H(cid:48)(i, j) = 1.00
1, if i%b ≥ 32 , j = i 1, if i%b ≥ 32 , j = i + k 1, if i%b ≥ 32 , j = i + k − 32 1, if i%b < 32 , j = i 1, if i%b < 32 , j = i + k 1, if i%b < 32 , j = n + 32r(i) + i%32 0, otherwise 1 i%b ≥ 32 , j = i 1 if i%b ≥ 32 , j = i + k 1 if i%b ≥ 32 , j = i + k − 32 1 if i%b < 32 , j = i 1 if i%b < 32 , j = i + k 1 if i%b < 32 , j = i + k 1 if i%b < 32 , j = n + 32r(i) + i%32 0。 0.90
(17) The first three cases correspond to Eq 15, the following three cases correspond to Eq 13 , 14. 17) 最初の3ケースはeq15に対応し、以下の3ケースはeq13,14に対応する。 0.74
Moreover, u is the constant vector that consists of the RCON values and defined by ∀i : 0 ≤ i < n − k : さらに、u は RCON の値からなる定数ベクトルであり、i : 0 ≤ i < n − k : で定義される。 0.79
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
Figure 2. The architecture of the cryptographic neural belief propagation. 図2。 暗号的ニューラル信念の伝播のアーキテクチャ。 0.65
The input is the corrupted key of the 1920 bits. 入力は1920ビットの劣化鍵である。 0.58
Each neural belief propagation layer receives two vectors: (i) the output of the previous belief propagation layer xj−1 , (ii) the output of the marginalization e(cid:48) layer oj−1 各神経信念伝播層は、2つのベクトルを受信する: (i) 前の信念伝播層 xj−1 の出力 (ii) 辺化 e(cid:48) 層の出力 oj−1 0.84
, after going through the S-box layer. S-box層を通過した後。 0.78
After the last iteration, we cut bits whose not approximated bits in the corrupted key. 最後のイテレーションの後に、腐敗したキーのビットを近似しないビットをカットします。 0.67
v r(i) is even. v r(i) は偶数である。 0.74
We did not use this assumption in practice (implementation and experiments). 私たちはこの仮定を実際に使わなかった(実装と実験)。 0.77
It remains to convert Eq 16 to a homogeneous form, by using the bias trick. バイアストリックを用いて、Eq 16 を同質な形式に変換することは依然として残っている。 0.66
Instead of the XOR operation with the bias u in Eq 16, concatenate one bit with a constant value of 1 to x. Eq 16 のバイアス u を持つ XOR 演算の代わりに、1ビットを定数 1 から x で連結する。
訳抜け防止モード: Eq 16 のバイアス u による XOR 演算の代わりに。 一定値が 1 から x の 1 ビットを連結する.
0.78
This bit used as a bias factor, and by using H, a concatenate of H(cid:48) with u, we can formulate Eq 16 as follows: このビットはバイアス因子として使われ、H(cid:48) を u と結合させることで、次のように Eq 16 を定式化できる。 0.76
  0.85
w0 ... wn−1 ˆZk−32 ˆZk−32+b ˆZk−32+2b w0 ... wn−1 >Zk−32 >Zk−32+b >Zk−32+2b 0.30
ˆZn−b−32 ... Zn−b−32 ... 0.45
1  1  0.85
H[x, 1] = H H[x, 1] = H 0.85
= 0 (18) ∀i, j : 0 ≤ i < n − k, 0 ≤ j ≤ (n + 32τ ) : = 0 (18) i, j : 0 ≤ i < n − k, 0 ≤ j ≤ (n + 32τ ) : 0.85
  0.20
, if j = (n + 32τ ) and c r(i) 2 i%b < 32 and r(i)%2 = 0 1, if i%b ≥ 32 , j = i 1, if i%b ≥ 32 , j = i + k 1, if i%b ≥ 32 , j = i + k − 32 1, if i%b < 32 , j = i 1, if i%b < 32 , j = i + k 1, if i%b < 32 , j = n + 32r(i) + i%32 0, otherwise j = (n + 32τ ) と c r(i) 2 i%b < 32 と r(i)%2 = 0 1 if i%b ≥ 32 , j = i 1 if i%b ≥ 32 , j = i + k 1, if i%b ≥ 32 , j = i + k − 32 1 if i%b < 32 , j = i + k 1 if i%b < 32 , j = i + k 1 if i%b < 32 , j = n + 32r(i) + i%32 0, if i%b < 32 , j = n + 32r(i) + i%32 0 である。 0.97
H(i, j) = (19) Note that the formulation of H also relevant for other variations of AES (i.e. H(i, j) = (19) H の定式化は AES の他の変種(すなわち)にも関係している。 0.82
k=128,192). k=128,192)。 0.56
Moreover, the same technique can be used to create deep architectures for sidechannel attacks for additional ciphers, for example Serpent (Anderson et al , 1998). さらに、Serpent (Anderson et al , 1998) のような、追加の暗号に対するサイドチャネル攻撃のための深いアーキテクチャを作成するために、同じテクニックが使用できる。 0.69
Based on the H matrix described in Eq, 19, we construct a neural belief propagation network, as described in Sec. Eq,19で記述したH行列に基づいて,Secで記述したニューラル信念伝播ネットワークを構築した。 0.72
3.2. 4.4. Partial MAX-SAT Solver 3.2. 4.4. 部分MAX-SATソルバー 0.69
Once we obtain the initial estimate from the neural network, we use a Partial MAX-SAT Solver to search for the corrected key. ニューラルネットワークから最初の推定値を得ると、部分MAX-SATソルバーを使用して修正キーを検索する。 0.66
To run the solver, we define the following Conjunctive Normal Form (CNF) formulas: 解法を実行するために、以下の連結正規形(CNF)の式を定義します。 0.61
1. n variables, one per bit in the key v1, .., vn. 1. n変数、キー v1, ., vn の1ビット当たりの値。 0.85
2. Converted the bit-relation in Eq 3,4,5 that implies by the key expansion function to a CNF formula by CNF Factorization. 2. Eq 3,4,5 のビット関係を鍵展開関数から CNF 因子化による CNF 公式に変換する。 0.84
The result is the formula ψAES, that consists of 217984 clauses and 1920 variables. 結果は、217984節と1920の変数からなる公式「AES」である。 0.71
Eq. 5 for example, which is in the following form: (a ⊕ b = c), is replaced with the following clauses: eqだ 5 例を挙げると、次の形式である: (a ) b = c) は以下の節に置き換えられる。 0.70
(i) ¬a ∧ ¬b ∧ ¬c (iii) a ∧ ¬b ∧ c (i) 「a」は「b」は「c」は「a」は「c」の意。 0.31
(ii) ¬a ∧ b ∧ c (iv) a ∧ b ∧ ¬c (ii)<a>b>c(iv)<b>c(iv)> 0.53
With the other equations, the result is more complicated, and each equation has been replaced by numerous clauses. 他の方程式では、結果はより複雑であり、各方程式は多数の節に置き換えられている。 0.74
We then insert these clauses into the solver as a hard formula. 次にこれらの節を難解な式としてソルバに挿入する。 0.54
This formula is identical for all of the instances and is calculated once in pre-processing. この公式はすべてのインスタンスで同一であり、前処理で一度計算される。 0.76
3. For each bit whose value is 1 in the corrupted key, we supply a single clause that enforces this key bit to be 1, we denote this formula by ψmemory. 3. 破損したキーの値が 1 である各ビットに対して、このキービットを 1 に強制する単一の節を提供し、この式をメモリで表す。 0.82
Formally: ψmemory := ∧i∈[n−1],li=1vi 公式: ψmemory := グイムリ[n−1],li=1vi 0.68
4. Consider the nh bits with the highest value in the network output o, and the nl bits with the lowest values. 4. ネットワーク出力 o で最高値の nh ビットと、最低値の nl ビットを考える。 0.73
These are the locations for which the network is mostly confident. これらは、主にネットワークが自信を持つ場所です。 0.73
Let th be the nh-th highest value in o, and the tl as the nl-th lowest values in o, we take these as thresholds and define the formula: th を o の nh 番目の値とし、tl を o の nl 番目の値とし、これらをしきい値とし、式を定義する。
訳抜け防止モード: th を o の nh - 番目に高い値とする。 tl は nl として o の最低値です これをしきい値として 式を定義します
0.74
(cid:17) ∧(cid:16) ∧i∈[n−1],oi≤tl vi (出典:17)→(出典:16)→[n−1],oi≤tl vi 0.72
(cid:16) ∧i∈[n−1],oi≥th ¬vi (出典:16)---------------- -------------------- -------------------- - 0.19
ψnn := (cid:17) ψnn := (cid:17) 0.86
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
We define ψAES as hard formula, and ψnn as soft formula. AES を硬式と定義し、n を軟式と定義する。 0.53
In the theoretical decay model, ψmemory is defined as hard formula, however in the realistic decay model is defined as a soft formula. 理論崩壊モデルでは、記憶は硬式として定義されるが、現実崩壊モデルでは軟式として定義される。 0.74
There is a large number of Partial MAX-SAT Solvers, which operate in a wide variety of strategies. 多数の部分MAX-SATソルバーがあり、様々な戦略で運用されている。 0.67
We select the WBO Solver (wbo) with the implementation of (Zengler), which is based on the unsatisfiability method (Martins et al , 2012), and other enhancements (Martins et al , 2011; Manquinho et al , 2010; 2009). We select the WBO Solver (wbo) with the implementation of (Zengler) which is based on the unsatisability method (Martins et al , 2012), and other enhance (Martins et al , 2011; Manquinho et al , 2010; 2009)。 0.78
We select this solver for three main reasons: 主に3つの理由からこの解法を選定する。 0.62
1. We have the intuition that DPLL solvers will be suitable for this problem over randomized SAT solvers due to the large complexity of the search space (there are 21920 vectors, and there are numerous clauses). 1. DPLLソルバは、探索空間の複雑さが大きいため、ランダム化SATソルバよりもこの問題に適している(21920ベクトルがあり、多くの節がある)という直感がある。 0.80
This complexity makes us think that it is better to use a solver that scans the space in an orderly manner. この複雑さにより、秩序ある方法で空間をスキャンするソルバを使う方がよいと考えています。 0.70
We, therefore, decided to use CDCL solvers (Silva & Sakallah, 2003; Marques-Silva & Sakallah, 1999; Bayardo Jr & Schrag, 1997), the most popular variation of DPLL solvers. そこで我々は,最も普及しているdpllソルバであるcdclソルバ(silva & sakallah, 2003, marques-silva & sakallah, 1999, bayardo jr & schrag, 1997)の使用を決定した。 0.74
2. Since it achieved the best results in different cold boot 2. 異なるコールドブーツで最高の結果を得たので 0.78
attack settings, for example (Liao et al , 2013). 例えば、攻撃設定(Liao et al , 2013)。 0.69
3. In the early step of this development, we tried to insert the complete key approximation from the neural network into a CDCL solver, instead of using ψnn and ψmemory. 3. この開発の最初の段階では、ψnn と ψmemory を使うのではなく、ニューラルネットワークからcdclソルバに完全鍵近似を挿入しようとしました。 0.77
Empirically, we observe that inserting the complete key approximation from the neural network into a CDCL solver does not output the correct keys. 経験的に、ニューラルネットワークからcdclソルバに完全鍵近似を挿入しても正しい鍵が出力されないことを観察する。 0.71
Therefore, we decided to focus on a small number of bits. そのため、少数のビットに焦点を合わせることにしました。 0.69
We chose the bits that the neural belief propagation is relatively sure in their values, and in total, the probability that more than a few bits in the subset are errors is very small (smaller than 1%). 我々は、ニューラル信念の伝播がそれらの値において比較的確実であるビットを選択し、総じて、サブセット内の数ビット以上がエラーである確率は、非常に小さい(1%未満)。 0.81
Therefore, it was natural to use the UNSAT (Martins et al , 2012) method which is suitable for the problem, since the number of unsatisfiability soft clauses is small with high probability. したがって、不満足なソフト節の数が少ないため、この問題に適したUNSAT(Martins et al , 2012)法を用いるのは自然であった。 0.68
4.5. The Overall Model 4.5. モデル全体 0.65
The input of our architecture is the vector l1, .., ln, which represents the corrupted key. 私たちのアーキテクチャの入力は、破損したキーを表すベクトル l1, .., ln である。 0.81
It is inserted into a cryptographic variant of the neural belief propagation, which includes S-box layers. Sボックス層を含む、神経信念伝播の暗号的変種に挿入される。 0.64
The S-box layers are based on the fully-connected neural network Snn, which imitates the Rijndael S-box and extends its functionality to non-binary values. sボックス層は、完全に接続されたニューラルネットワークsnに基づいており、rijndael sボックスを模倣し、その機能を非バイナリ値に拡張する。 0.56
The original neural belief propagation layers are defined by a parity check matrix H, which designed according to the key expansion function, as designed in Eq 19. 元のニューラル信念伝搬層は、Eq 19で設計されたキー展開関数に従って設計されたパリティチェック行列Hによって定義される。 0.82
The modified neural belief propagation predicts the probability that each key bit was 1. 修正されたニューラル信念予測は、各キービットが1である確率を予測する。 0.66
We denote these probabilities by o = o1, .., on. これらの確率を o = o1, .. で表す。 0.67
Based on l and o, we define the following SAT instance, as described in detail in Sec. lとoに基づいて、secで詳細に説明されているように、以下のsatインスタンスを定義します。 0.44
4.4: 1. Define n variables, one per bit v1, .., vn. 4.4: 1. n 変数を定義する。 1 ビット v1, .., vn である。 0.81
2. ψnn a CNF that is induced by the neural belief propa- 2. 神経信念プロパによって誘導されるcnf- 0.70
gation predictions. gationの予測。 0.79
3. ψmemory a CNF that is induced by the corrupted key 3. 劣化したキーによって誘導されるCNFを記憶する 0.72
4. ψAES a CNF that is equivalent to the key expansion 4. ψaes a cnf that equivalent to the key expansion 0.80
constraints. We run the WBO solver on this instance. 制約。 私たちはこのケースでWBOソルバを実行します。 0.59
The output of our model is the assignment that is returned from the solver. 私たちのモデルの出力は、解決者から返される代入です。 0.66
We note that in contrast to previous cold boot attack methods, the input of our method is a floating vector over [0, 1] instead of binary input 0, 1. 従来のコールドブート攻撃法とは対照的に,本手法の入力はバイナリ入力 0, 1 の代わりに [0, 1] 上の浮動小数点ベクトルである。 0.72
In this way, one can better express the decay model of the memory. このようにして、メモリの減衰モデルをより良く表現することができる。 0.78
In practice, this input can be measured according to the voltage, the memory sector or, the amount of time that elapsed from shutting down the power to the time that the bits were read. 実際には、この入力は、電圧、メモリセクタ、または、電力をシャットダウンしてからビットを読み取るまでの経過した時間に基づいて測定することができる。 0.64
However, to compare with previous work on common grounds, our experiments focus entirely on the binary case. しかし, 従来の研究と共通して比較するために, 実験はバイナリケースに完全に焦点をあてた。 0.71
5. Experiments We trained our proposed architecture with two types of DRAM memory corruption processes: (i) the theoretical model, where δ1 = 0, and (ii) a more realistic model, where δ1 = 0.001. 5. 実験 私たちは提案したアーキテクチャを,(i)理論モデル,(ii)より現実的なモデル,(ii) δ1 = 0.001の2種類のDRAMメモリ破壊プロセスで訓練した。 0.82
For each model, we test with different corruption rates δ0 ∈ [0.40, 0.72] for the theoretical model and δ0 ∈ [0.50, 0.85] for the realistic model. 各モデルについて、異なる腐敗率 δ0 ∈ [0.40, 0.72] を理論モデルで、δ0 ∈ [0.50, 0.85] を実モデルでテストする。 0.77
The training set contains generated random AES 256 keys. トレーニングセットは、生成されたランダムAES256キーを含む。 0.70
Each batch contains multiple values of corruption rate which are chosen randomly with a uniform distribution at a range of [δ0/4,1 − (1 − δ0)/4] where δ0 is the corruption rate for the test set in a given experiment. 各バッチは、テストセットの汚職率である[δ0/4,1 − (1 − δ0)/4]の範囲で、ランダムに一様分布で選択される複数の汚職率を含む。
訳抜け防止モード: 各バッチは、[ δ0/4,1 − ( 1 − δ0)/4 の範囲で一様分布でランダムに選択される複数の汚職率を含む。 ] 所定の実験において δ0 がテストの腐敗率である場合。
0.79
During training, we use a batch size of 4, a learning rate of 1e − 4, and an Adam optimizer (Kingma & Ba, 2014). トレーニングでは、バッチサイズ4、学習速度1e − 4、Adam Optimizationr(Kingma & Ba, 2014)を使用します。 0.61
The number of iterations for the neural belief propagation was L = 3. 神経信念伝播の反復回数はL=3。 0.46
The parameters nl were 30 and nh was 0, we multiplied the input l by a constant scaling factor of 0.12. パラメータnlは30,nhは0であり,入力lは0。
訳抜け防止モード: パラメータnlは30,nhは0。 入力lを0.12の定数スケーリング係数で乗算しました
0.68
The S-box network Snn is trained with the Adam optimizer with a batch size of 32 and a learning rate of 1e − 3. SボックスネットワークSnnは、Adamオプティマイザで、バッチサイズ32、学習レート1e〜3で訓練される。
訳抜け防止モード: S-ボックスネットワークSnnはAdamオプティマイザで訓練され、バッチサイズは32である。 学習率は 1e − 3 である。
0.74
The training set contains all 256 possible inputs. トレーニングセットには256の可能なすべての入力が含まれている。 0.55
Our goal is to approximate the Rijndael S-box function on continuous inputs, where it is not defined. 我々のゴールは、連続入力上のRijndael S-box関数を近似することであり、定義されていない。 0.59
Where it is defined, it achieves 100% accuracy and approximates the Rijndael S-box function perfectly. 定義されている場合、100%精度を達成し、Rijndael S-box関数を完璧に近似する。 0.65
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
The baseline methods we compare to include: (1) (Tsow, 2009) which recovers AES key schedules from decayed memory images, (2) (Tanigaki & Kunihiro, 2015) which is based on a maximum likelihood approach that recovers the key in an imperfect asymmetric decay model, (3) (Kamal & Youssef, 2010) which was the first to encode the problem as SAT instant. 比較対象として, (1) (tsow, 2009) 減衰メモリ画像からaes鍵スケジュールを復元する (2) (tanigaki & kunihiro, 2015) 不完全不斉減衰モデルにおける鍵を回復する最大ラピッドアプローチに基づく (3) (kamal & youssef, 2010) 問題をsat instantとして符号化する最初の手法である。 0.69
(4) (Liao et al , 2013) A baseline method that is based on the same SAT solver, but in each instance, we ignore the neural network approximation o, as expressed by the formula ψnn. (4) (liao et al , 2013) 同じsatソルバに基づくベースライン法であるが、各インスタンスでは、式 ψnn で表されるように、ニューラルネットワーク近似 o を無視する。 0.66
(5) A baseline method, as described in Eq. (5) eq に記述したベースラインメソッド。 0.67
20, does not employ the S-box. 20はsボックスを使用しない。 0.73
We run all SAT solvers with a timeout of one hour, with 600 keys per experiment. satソルバはすべて,実験毎に600キーのタイムアウトで,1時間のタイムアウトで実行しています。
訳抜け防止モード: SATソルバはすべて,タイムアウト1時間で実行します。 実験の鍵は600個
0.73
To reduce the variance of the results, we use the same keys for both our model and the baselines we run. 結果のばらつきを低減するために、我々はモデルとベースラインの両方に同じキーを使用します。 0.73
the network, for the network without the S-box component followed by the SAT solver. ネットワークは、Sボックスコンポーネントなしのネットワークに対してSATソルバが続く。 0.75
However, when increasing the corruption rate, the difference between the methods becomes more pronounced. しかし、腐敗率を上げると、その方法の違いがより顕著になる。 0.57
The addition of the S-box slightly improves in this setting. Sボックスの追加は、この設定でわずかに改善される。 0.74
5.3. Results for Realistic Model δ1 = 0.001 Tab. 5.3. Realistic Model δ1 = 0.001 Tab の結果。 0.75
2 depicts the results for the realistic model, where δ0 = 0.001. 2 は δ0 = 0.001 となる現実的なモデルの結果を表す。 0.77
Evidently, the baseline method struggles to maintain a high level of performance as the corruption rate increases. 明らかに、ベースライン法は、腐敗率の増加に伴って高いレベルのパフォーマンスを維持するのに苦労している。 0.50
Our method, including the two simplified variants, maintains a high performance until a corruption rate of 65%, after which the recovery rate starts to drop. 2つの単純化された変種を含む本手法は, 腐敗率65%まで高い性能を維持し, 回復率は低下し始める。 0.70
For high corruption rates, the advantage of using the network with the S-box becomes clearer. 高い汚職率では、Sボックスでネットワークを使用する利点はより明確になる。 0.69
5.1. Ablation variants 5.1. アブレーション変種 0.68
5.4. Model Analysis 5.4. モデル分析 0.77
In order to isolate the influence of the neural S-box component Snn on the performance, we perform an ablation analysis. ニューラルネットワークS-boxコンポーネントSnnの動作への影響を分離するため,アブレーション解析を行った。 0.73
In the first ablation study, we do not use Snn, and connect l to the original (without any modifications) belief propagation neural network directly. 最初のアブレーション研究では、snnは使用せず、lを元の(いかなる修正もなしに)信念伝達ニューラルネットワークに直接接続する。 0.77
In these settings, we ignore the non-linear constraints, and use H(cid:48)(cid:48), a sub-matrix of H: これらの設定では、非線形制約を無視し、H:のサブ行列であるH(cid:48)(cid:48)を使用する。
訳抜け防止モード: これらの設定では、非線型制約を無視します。 H : の部分行列 H(cid:48)(cid:48 )
0.75
∀i, j : 0 ≤ i < n − k, 0 ≤ j ≤ n i, j : 0 ≤ i < n − k, 0 ≤ j ≤ n である。 0.92
 H(cid:48)(cid:48)(i, j) =  H(cid:48)(cid:48)(i, j) = 0.88
1, if i%b ≥ 32 and j = i 1, if i%b ≥ 32 and j = i+k 1, if i%b ≥ 32 and j = i+k-32 0, otherwise 1 i%b ≥ 32 かつ j = i 1 であれば、i%b ≥ 32 かつ j = i+k 1 であれば、i%b ≥ 32 かつ j = i+k-32 0 である。 0.90
(20) Hl = 0 (20) Hl = 0 0.85
(21) This ablation uses only linear constraints. (21)このアブレーションは線形制約のみを使用する。 0.73
Therefore, we call it as ”LC”. したがって、私たちはそれを"LC"と呼びます。 0.73
The second ablation uses H, the full matrix, but does not contain neural S-box layers inside the neural belief propagation network. 第2のアブレーションはフルマトリックスであるHを用いるが、神経信念伝播ネットワーク内に神経Sボックス層は含まない。 0.73
This ablation uses the original belief propagation neural network architecture, which we denote as ”OBPNN”. このアブレーションは、本来「OBPNN」と表現された、ニューラルネットワークアーキテクチャの信条である。 0.62
In the ablation experiments, a neural belief propagation network is constructed, as described in Sec. アブレーション実験では、Secに記述されているように、ニューラル信念伝播ネットワークを構築する。 0.58
3.2 based on the H(cid:48)(cid:48) of Eq 20. 3.2 Eq20のH(cid:48)(cid:48)に基づく。 0.82
5.2. Results for Theoretical Model δ1 = 0 Tab. 5.2. 理論モデル δ1 = 0 tab の結果。 0.75
1 presents the results of the theoretical model. 1は理論モデルの結果を示す。 0.73
As can be seen, our method can handle a corruption rate as high as 72%, while the method of Tsow (2009) cannot handle 70% (and maybe even fails earlier). ご覧の通り,本手法は汚職率を72%まで処理できるが,tsow法(2009年)では70%の処理ができない(早期に失敗する可能性もある)。 0.71
For the lower corruption rate δ0, we can see that the results are close to 100% for the SAT solver that does not employ 低汚職率δ0では、適用しないSATソルバに対して、結果が100%に近いことが分かる。 0.65
In Figure 3, we present (i) the trade-off is expressed by the size of o(cid:48). 図3では、(i)トレードオフはo(cid:48)のサイズで表されます。 0.63
As the set size increases, the probability that more than a few errors occur increases as well. セットサイズが大きくなるにつれて、数回以上のエラーが発生する確率も増加する。 0.82
We choose nl, with a high probability (for example 99.5%) that there are no more than two bits errors in o(cid:48). nl を高い確率 (例:99.5%) で選択し、o (cid:48) に2ビットの誤りが存在しないようにする。 0.81
Therefore, according to binomial calculation and the figure, we determine that nh = 0 and nl = |o(cid:48)| be in [20, 50] for most of the values of δ0 and δ1 and. したがって、二項計算と図式により、nh = 0 と nl = |o(cid:48)| が δ0 と δ1 の値のほとんどに対して [20, 50] に入ると決定する。 0.84
(i) How the insertion of the S-box layers into the neural belief propagation improves the network performance. (i)sボックス層を神経信念伝播に挿入することでネットワーク性能が向上する。 0.71
Specifically, for each corruption rate, the architecture that contains S-box layers increases the number of bits that can be predicted with high confidence. 具体的には、各汚職率に対して、Sボックス層を含むアーキテクチャは高い信頼性で予測できるビット数を増加させる。 0.72
6. Conclusions ML is often considered unsuitable for problems in cryptography, due to the combinatorial nature of such problems and the uniform prior of the keys. 6. 結論 ML は、このような問題の組合せの性質と鍵の前の均一性のため、暗号における問題には適さないと考えられがちである。
訳抜け防止モード: 6. 結論 ML はしばしば考慮される 暗号の問題には適さない このような問題の組合せの性質と 鍵の前の一様さ
0.78
In this paper, we present convincing evidence in support of employing deep learning in this domain. 本稿では,この領域における深層学習の実践を支援する証拠を提示する。 0.82
Specifically, we present a novel method that combines a deep belief propagation neural network and an adapted SAT solver to achieve the state-of-the-art results in the key recovery problem for cold boot attack. 具体的には、コールドブート攻撃におけるキーリカバリ問題において、ディープ信念伝搬ニューラルネットワークと適応SATソルバを組み合わせることで、最先端の結果を達成する方法を提案する。 0.59
Our method can recover keys with a high success rate in corruption regions, in which no other method is successful on the AES-256 cipher. 本手法は,AES-256暗号において他の手法が成功しない領域において,高い成功率で鍵を復元することができる。 0.77
Our method includes three new techniques: (1) We successfully approximate the S-box transformation by a neural network, despite it being highly non-linear, not differentiable, designed to be resistant to side-channel attacks, and known to be incompatible with a computational graph representation. 1) ニューラルネットワークによるS-box変換は,非線形であり,識別不可能であり,サイドチャネル攻撃に耐性があり,計算グラフ表現と相容れないことが知られているにもかかわらず,3つの新しい手法を含む。 0.75
(2) A new error correcting code representation of the AES family of codes that, unlike previous work, is explicit and also considers all the bits of the original key at once. 2) AESファミリーのコード表現を誤り訂正する新しいコード表現は、以前の作業とは異なり明示的であり、元のキーのすべてのビットを一度に考慮する。 0.78
This approach can be extended to other ciphers, such as Serpent (Anderson et al , 1998). このアプローチは、Serpent (Anderson et al , 1998) のような他の暗号にも拡張できる。 0.75
(3) We are the first, as far as we can ascertain, to combine the approach (3)我々は、そのアプローチを組み合わせるために、確認できる限り、初めてである。 0.73
英語(論文から抽出)日本語訳スコア
Table 1. Performance evaluation for theoretical model (δ1 = 0). 表1。 理論モデルの性能評価 (δ1 = 0)。 0.77
The success rate of a cold boot attack for AES-256 with different corruption rates. aes-256のコールドブート攻撃の成功率は、腐敗率が異なる。 0.66
Higher is better. Recovering AES Keys with a Deep Cold Boot Attack 高い方がよい。 ディープコールドブートアタックによるAESキーの復元 0.72
Model / Corruption rate (Tsow, 2009) MAX-SAT Ours LC Ours OBPNN Ours Model / Corruption rate (Tsow, 2009) MAX-SAT Ours LC Ours OBPNN Ours 0.96
40% 50% 60% 65% 68% 70% 72% 74% 100.0 N/A 15.95 100.0 18.61 100.0 20.27 100.0 100.0 22.35 40% 50% 60% 65% 68% 70% 72% 74% 100.0 N/A 15.95 100.0 18.61 100.0 20.27 100.0 100.0 22.35 0.68
100.0 N/A 84.12 93.95 88.88 95.74 90.52 96.41 97.05 91.20 100.0 N/A 84.12 93.95 88.88 95.74 90.52 96.41 97.05 91.20 0.42
100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 100.0 0.44
100.0 97.92 99.11 99.43 99.51 100.0 97.92 99.11 99.43 99.51 0.44
0.0 73.56 81.25 82.27 84.10 0.0 73.56 81.25 82.27 84.10 0.44
0.0 49.53 53.45 53.90 54.52 0.0 49.53 53.45 53.90 54.52 0.44
Table 2. Performance evaluation for realistic model (δ1 = 0.001). 表2。 実モデルの性能評価 (δ1 = 0.001)。 0.79
The success rate of a cold boot attack for AES-256 with different corruption rates. aes-256のコールドブート攻撃の成功率は、腐敗率が異なる。 0.66
Higher is better. Model / Corruption rate (Tanigaki & Kunihiro, 2015) (L=1024) (Tanigaki & Kunihiro, 2015) (L=2048) (Tanigaki & Kunihiro, 2015) (L=4096) (Tanigaki & Kunihiro, 2015) (Best) MAX-SAT Ours LC Ours OBPNN Ours 高い方がよい。 Model / Corruption rate (Tanigaki & Kunihiro, 2015) (L=1024) (Tanigaki & Kunihiro, 2015) (L=2048) (Tanigaki & Kunihiro, 2015) (L=4096) (Tanigaki & Kunihiro, 2015) (Best) MAX-SAT Ours LC Ours OBPNN Ours OBPNN Ours 0.86
50% 55% 60% 65% 70% 75% 0.20 73.3 0.20 82.0 88.0 0.00 0.20 88.0 9.36 100.0 10.23 100.0 100.0 13.69 14.34 100.0 50% 55% 60% 65% 70% 75% 0.20 73.3 0.20 82.0 88.0 0.00 0.20 88.0 9.36 100.0 10.23 100.0 100.0 13.69 14.34 100.0 0.56
52.00 61.70 73.20 73.20 100.0 100.0 100.0 100.0 52.00 61.70 73.20 73.20 100.0 100.0 100.0 100.0 0.42
29.80 38.50 51.70 51.70 97.71 98.09 98.83 99.34 29.80 38.50 51.70 51.70 97.71 98.09 98.83 99.34 0.42
10.50 18.20 21.80 21.80 91.25 93.75 95.11 96.0 10.50 18.20 21.80 21.80 91.25 93.75 95.11 96.0 0.42
1.30 3.00 5.80 5.80 60.51 64.56 66.67 66.84 1.30 3.00 5.80 5.80 60.51 64.56 66.67 66.84 0.42
of the error correcting codes with the SAT solver approach. SATソルバアプローチによる誤り訂正符号の取得。 0.59
As is shown in our experiments, the hybrid solution we present can to correct bits whose initial value is one but their corrupt value is zero. 実験で示されるように、我々が提示するハイブリッドソリューションは、初期値が1だが破損した値が0であるビットを補正できる。 0.80
Detecting this event is challenging, since its prior probability is very low. 事前の確率は非常に低いため、この事象の検出は困難である。 0.64
The improved success rate of our method on this very popular cipher may have far-reaching implications. この非常にポピュラーな暗号に対する我々の手法の成功率の改善は、はるかに大きな意味を持つかもしれない。 0.51
In addition, the techniques we developed could facilitate an improved success rate in other side channel attacks, for example power analysis attacks (Kocher et al , 1998), timing attacks (Kocher, 1996), and electromagnetic attacks (Sayakkara et al , 2019; Quisquater, 2000). さらに,我々が開発した手法は,電力解析攻撃 (kocher et al , 1998),タイミング攻撃 (kocher, 1996),電磁攻撃 (sayakkara et al , 2019; quisquater, 2000) など,他のサイドチャネル攻撃における成功率の向上にも寄与した。 0.82
An interesting direction for future research is to apply more recent neural error correcting code decoders, such as those based on hypernetworks (Nachmani & Wolf, 2019), and evaluate if their improved performance on error correcting codes carries over to the cold boot attack problem. 将来の研究の興味深い方向は、ハイパーネットワーク(Nachmani & Wolf, 2019)など、より最近のニューラルエラー訂正コードデコーダを適用し、エラー訂正コードのパフォーマンス改善がコールドブート攻撃問題につながるかどうかを評価することである。 0.74
Acknowledgement LW thanks the Blavatnik Interdisciplinary Cyber Research Center at Tel-Aviv University, for financial support. テルアビブ大学のブラヴァトニク学際サイバー研究センター(Blavatnik Interdisciplinary Cyber Research Center)に、資金援助を感謝する。 0.56
The contribution of Eliya Nachmani is part of a Ph.D. thesis research conducted at Tel Aviv University. Eliya Nachmaniの貢献はテルアビブ大学で行われた博士論文研究の一部である。 0.71
Figure 3. Each line represents the performance per architecture and specific corruption rate (c.r.). 図3。 各行はアーキテクチャ毎のパフォーマンスと特定の汚職率(c.r.)を表す。 0.74
The dashed lines represent our architecture and the other lines represent our OBPNN ablation. 断線はアーキテクチャを表し、他の線はOBPNNのアブレーションを表しています。 0.61
For each value of nl, we show the accuracy of the bits in o(cid:48). nl の各値について、o(cid:48) 内のビットの精度を示す。 0.72
When this parameter is too high, the probability for more than a few errors increases. このパラメータが高すぎると、数回以上のエラーの確率が増加する。 0.74
On the other hand, if it too low, our network does not influence the search of the SAT solver. 一方、低すぎるとSATソルバの探索に影響を与えない。 0.35
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
References Cold boot attack affects for android smartphones kernel androidスマートフォンカーネルのコールドブート攻撃が影響する参照 0.70
description. link, a. Accessed: 2010-09-30. 説明しろ link, a. accessed: 2010-09-30。 0.66
Cold Boot Attack On CellPhones, cba for cellphones. コールドブート攻撃 携帯電話用のcba、CellPhones。 0.75
link, b. Accessed: 2010-09-30. リンク b. アクセス: 2010-09-30。 0.52
Cold Boot Attack On CellPhones, cba for all laptops. 全ラップトップのcba、CellPhonesのコールドブートアタック。 0.64
link, c. Accessed: 2010-09-30. リンク c. アクセス: 2010-09-30。 0.50
Cold Boot Attack On CellPhones, cba for modern comput- 携帯電話におけるコールドブート攻撃と現代コンピュータのためのcba- 0.55
ers. link, d. Accessed: 2010-09-30. アース link, d. accessed: 2010-09-30。 0.47
WBO Partial MAX SAT Solver. WBOpartialMAX SAT Solver所属。 0.58
inesc-id.pt/wbo/. inesc-id.pt/wbo/ 0.35
http://sat. http://sat.com。 0.52
Albrecht, M. and Cid, C. Cold boot key recovery by solving polynomial systems with noise. Albrecht, M. and Cid, C. Cold boot key recovery by solve polynomial systems with noise 0.85
In International Conference on Applied Cryptography and Network Security, pp. international conference on applied cryptography and network security, pp. (英語) 0.82
57–72. Springer, 2011. 57–72. 2011年、スプリンガー。 0.64
An, X., Liang, Y., and Zhang, W. High-efficient reedsolomon decoder based on deep learning. An, X., Liang, Y., Zhang, W. ディープラーニングに基づく高効率リードソロモンデコーダ。 0.72
In 2020 IEEE International Symposium on Circuits and Systems (ISCAS), pp. 2020年IEEE International Symposium on Circuits and Systems (ISCAS, pp。 0.73
1–5. IEEE, 2020. 1–5. IEEE、2020年。 0.80
Anderson, R., Biham, E., and Knudsen, L. Serpent: A proposal for the advanced encryption standard. Anderson, R., Biham, E. and Knudsen, L. Serpent: 高度な暗号化標準の提案。 0.81
NIST AES Proposal, 174:1–23, 1998. NIST AES Proposal, 174:1–23, 1998 0.84
Bauer, J., Gruhn, M., and Freiling, F. C. Lest we forget: Cold-boot attacks on scrambled ddr3 memory. bauer, j., gruhn, m. and freiling, f. c. lest we forget: cold-boot attack on scrambled ddr3 memory. (英語) 0.75
Digital Investigation, 16:S65–S74, 2016. Digital Investigation, 16:S65–S74, 2016 0.87
Bayardo Jr, R. J. and Schrag, R. Using csp look-back techniques to solve real-world sat instances. Bayardo Jr, R. J. and Schrag, R. using csp look-back technique to solve real-world sat instance。 0.84
In Aaai/iaai, pp. Aaai/iaai, pp。 0.84
203–208. Providence, RI, 1997. 203–208. 1997年、プロビデンス。 0.57
Caciularu, A. and Burshtein, D. Unsupervised linear and nonlinear channel equalization and decoding using variational autoencoders. Caciularu, A. and Burshtein, D. Unsupervised linear and linear channel equalization and decoding using variational autoencoders 0.85
IEEE Transactions on Cognitive Communications and Networking, 6(3):1003–1018, 2020. IEEE Transactions on Cognitive Communications and Networking, 6(3):1003–1018, 2020 0.91
Daemen, J. and Rijmen, V. Aes proposal: Rijndael. Daemen, J. and Rijmen, V. Aes proposal: Rijndael 0.88
1999. Doan, N., Hashemi, S. A., and Gross, W. J. Neural successive cancellation decoding of polar codes. 1999. Doan, N., Hashemi, S. A. and Gross, W. J. Neural 極性符号の逐次復号化 0.82
In 2018 IEEE 19th international workshop on signal processing advances in wireless communications (SPAWC), pp. 2018年ieee 19th international workshop on signal processing advances in wireless communications (spawc) pp. 0.76
1–5. IEEE, 2018. 1–5. 2018年、IEEE。 0.61
Gross, W. J., Doan, N., Ngomseu Mambou, E., and Ali Hashemi, S. Deep learning techniques for decoding polar codes. Gross, W. J., Doan, N., Ngomseu Mambou, E., Ali Hashemi, S. Deep Learning Technique for decoding polar codes。 0.85
Machine Learning for Future Wireless Communications, pp. 未来無線通信のための機械学習, pp. 0.91
287–301, 2020. 287–301, 2020. 0.84
Gruber, T., Cammerer, S., Hoydis, J., and ten Brink, S. On deep learning-based channel decoding. gruber, t., cammerer, s., hoydis, j., ten brink, s. ディープラーニングベースのチャネルデコードについて。 0.66
In 2017 51st Annual Conference on Information Sciences and Systems (CISS), pp. 2017年 51st Annual Conference on Information Sciences and Systems (CISS) pp。 0.77
1–6. IEEE, 2017. 1–6. 2017年、IEEE。 0.67
Gutmann, P. Data remanence in semiconductor devices. Gutmann, P. 半導体デバイスにおけるデータレマンス 0.74
In USENIX Security Symposium, pp. 院 USENIX Security Symposium, pp。 0.61
39–54, 2001. 39–54, 2001. 0.84
Habib, S., Beemer, A., and Kliewer, J. Habib, S., Beemer, A., Kliewer, J。 0.75
Learning to decode: Reinforcement learning for decoding of sparse graphbased channel codes. 復号への学習:スパースグラフベースのチャネルコードの復号化のための強化学習。 0.70
arXiv preprint arXiv:2010.05637, 2020. arXiv preprint arXiv:2010.05637, 2020 0.81
Halderman, J. A., Schoen, S. D., Heninger, N., Clarkson, W., Paul, W., Calandrino, J. ハルダーマン、j。 A., Schoen, S. D., Heninger, N., Clarkson, W., Paul, W., Calandrino, J. 0.79
A., Feldman, A. J., Appelbaum, J., and Felten, E. W. Lest we remember: cold-boot attacks on encryption keys. A., Feldman, A. J., Appelbaum, J., and Felten, E. W. Lestは、暗号鍵に対するコールドブート攻撃だ。 0.88
Communications of the ACM, 52(5): 91–98, 2009. acm, 52(5): 91-98, 2009 の通信。 0.76
Jiang, Y., Kim, H., Asnani, H., Kannan, S., Oh, S., and Viswanath, P. Turbo autoencoder: Deep learning based channel codes for point-to-point communication channels. Jiang, Y., Kim, H., Asnani, H., Kannan, S., Oh, S. and Viswanath, P. Turbo Autoencoder: ポイントツーポイント通信チャネルのためのディープラーニングベースのチャネルコード。 0.88
In Advances in Neural Information Processing Systems, pp. ニューラル・インフォメーション・プロセッシング・システムにおける進歩, pp. 0.59
2754–2764, 2019. 2754–2764, 2019. 0.84
Kamal, A. A. and Youssef, A. M. Applications of sat solvers to aes key recovery from decayed key schedule images. カマル、A。 A. and Youssef, A. M. 崩壊した鍵スケジュール画像から鍵回復を行うサットソルバの応用 0.66
In 2010 Fourth International Conference on Emerging Security Information, Systems and Technologies, pp. 2010年の第4回セキュリティ情報・システム・技術国際会議, pp. 0.80
216– 220. IEEE, 2010. 216– 220. 2010年、IEEE。 0.81
Kamassury, J. K. S. and Silva, D. Iterative error decimation for syndrome-based neural network decoders. Kamassury, J. K. S. and Silva, D. シンドロームに基づくニューラルネットワークデコーダの反復的誤り決定 0.77
arXiv preprint arXiv:2012.00089, 2020. arXiv preprint arXiv:2012.00089, 2020 0.81
Kim, H., Jiang, Y., Kannan, S., Oh, S., and Viswanath, P. In AdDeepcode: Feedback codes via deep learning. Kim, H., Jiang, Y., Kannan, S., Oh, S. and Viswanath, P. In AdDeepcode: ディープラーニングによるフィードバックコード。 0.84
vances in Neural Information Processing Systems (NIPS), pp. 神経情報処理システム (NIPS, pp。 0.55
9436–9446, 2018a. 9436-9446, 2018a。 0.58
Kim, H., Jiang, Y., Rana, R., Kannan, S., Oh, S., and Viswanath, P. Communication algorithms via deep learning. Kim, H., Jiang, Y., Rana, R., Kannan, S., Oh, S., Viswanath, P. Communication Algorithm by Deep Learning。 0.82
arXiv preprint arXiv:1805.09317, 2018b. arXiv preprint arXiv:1805.09317, 2018b 0.73
Kingma, D. P. and Ba, J. Adam: A method for stochastic Kingma, D. P. and Ba, J. Adam:確率的方法 0.81
optimization. arXiv preprint arXiv:1412.6980, 2014. 最適化。 arXiv preprint arXiv:1412.6980, 2014 0.75
Kocher, P., Jaffe, J., Jun, B., et al Introduction to differential Kocher, P., Jaffe, J., Jun, B., et al Introduction to differential 0.85
power analysis and related attacks, 1998. 1998年 パワー・アナリティクスと 関連する攻撃 0.82
Kocher, P. C. Timing attacks on implementations of diffiehellman, rsa, dss, and other systems. kocher, p. c. diffiehellman, rsa, dss などのシステムの実装に対するタイミング攻撃。 0.77
In Koblitz, N. (ed. コブリッツ、N。 (エド) 0.48
), Advances in Cryptology — CRYPTO ’96, pp. 暗号学の進歩 — CRYPTO ’96, pp。 0.58
104–113, Berlin, Heidelberg, 1996. 104-113, Berlin, Heidelberg, 1996 0.86
Springer Berlin Heidelberg. ベルリン・ハイデルベルク出身。 0.62
ISBN 978-3-540-68697-2. ISBN 978-3-540-68697-2。 0.38
Liao, X., Zhang, H., Koshimura, M., Fujita, H., and Hasegawa, R. Using maxsat to correct errors in aes key schedule images. liao, x., zhang, h., koshimura, m., fujita, h., and hasegawa, r. maxsatを使用してaesキースケジュールイメージの誤りを訂正する。 0.70
In 2013 IEEE 25th international conference on tools with artificial intelligence, pp. 2013年、ieee 25th international conference on tools with artificial intelligence, pp。 0.82
284–291. IEEE, 2013. 284–291. 2013年、IEEE。 0.65
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
Manquinho, V. M., Silva, J. P. M., and Planes, J. Algorithms for weighted boolean optimization. Manquinho, V. M., Silva, J. P. M., and Planes, J. Algorithms for weighted boolean optimization。 0.97
In Kullmann, O. (ed. クルマン、O。 (エド) 0.49
), Theory and Applications of Satisfiability Testing - SAT 2009, 12th International Conference, SAT 2009, Swansea, UK, June 30 - July 3, 2009. 満足度テストの理論と応用 - sat 2009 12th international conference, sat 2009 swansea, uk, june 30– july 3, 2009 (英語) 0.71
Proceedings, volume 5584 of Lecture Notes in Computer Science, pp. Proceedings, Volume 5584 of Lecture Notes in Computer Science, pp。 0.80
495–508. Springer, 2009. doi: 10.1007/ 978-3-642-02777-2\ 45. 495–508. springer, 2009: 10.1007/978-3-642-02 777-2\ 45。 0.50
URL https://doi.org/ 10.1007/978-3-642-02 777-2_45. URL https://doi.org/ 10.1007/978-3-642-02 777-2_45 0.32
Manquinho, V. M., Martins, R., and Lynce, I. Manquinho, V. M., Martins, R., Lynce, I。 0.81
Improving unsatisfiability-based algorithms for boolean optimizaIn Strichman, O. and Szeider, S. boolean optimizain strichman, o. and szeiderにおける不満足性に基づくアルゴリズムの改善 0.75
(eds. ), Theory tion. (eds)。 理論上は有意である。 0.65
and Applications of Satisfiability Testing - SAT 2010, 13th International Conference, SAT 2010, Edinburgh, UK, July 11-14, 2010. The Applications of Satisfiability Testing - SAT 2010, 13th International Conference, SAT 2010, Edinburgh, UK, July 11-14, 2010 0.88
Proceedings, volume 6175 of Lecture Notes in Computer Science, pp. Proceedings, Volume 6175 of Lecture Notes in Computer Science, pp。 0.80
181–193. Springer, 2010. doi: 10.1007/978-3-642-14 186-7\ 16. 181–193. Springer, 2010 Doi: 10.1007/978-3-642-14 186-7\ 16。 0.58
URL https:// doi.org/10.1007/978- 3-642-14186-7_16. url https:// doi.org/10.1007/978- 3-642-14186-7_16。 0.30
Marques-Silva, J. P. and Sakallah, K. A. Grasp: A search algorithm for propositional satisfiability. Marques-Silva, J. P. and Sakallah, K. A. Grasp: 命題満足度探索アルゴリズム。 0.76
IEEE Transactions on Computers, 48(5):506–521, 1999. IEEE Transactions on Computers, 48(5):506–521, 1999。 0.93
Martins, R., Manquinho, V. M., and Lynce, I. Exploiting cardinality encodings in parallel maximum satisfiabilIn IEEE 23rd International Conference on Tools ity. Martins, R., Manquinho, V. M., Lynce, I. Exploiting cardinality encodings in parallel maximum satisfiabilIn IEEE 23rd International Conference on Tools ity 0.85
with Artificial Intelligence, ICTAI 2011, Boca Raton, FL, USA, November 7-9, 2011, pp. 人工知能,ICTAI 2011, Boca Raton, FL, USA, November 7-9, 2011, pp。 0.79
313–320. IEEE Computer Society, 2011. doi: 10.1109/ICTAI.2011.5 4. 313–320. IEEE Computer Society, 2011 doi: 10.1109/ICTAI.2011.5 4。 0.67
URL https://doi.org/10.1 109/ICTAI.2011.54. URL https://doi.org/10.1 109/ICTAI.2011.54 0.37
Martins, R., Manquinho, V. M., and Lynce, I. Martins, R., Manquinho, V. M., Lynce, I。 0.81
On partitioning for maximum satisfiability. 最大満足度のための分割について 0.52
In Raedt, L. D., Bessiere, C., Dubois, D., Doherty, P., Frasconi, P., Heintz, F., and Lucas, P. J. F. Raedt, L. D., Bessiere, C., Dubois, D., Doherty, P., Frasconi, P., Heintz, F., Lucas, P. J. F。 0.85
(eds. ), ECAI 2012 - 20th European Conference on Artificial Intelligence. (eds)。 第20回欧州人工知能会議(ECAI 2012)に参加。 0.74
Including Prestigious Applications of Artificial Intelligence (PAIS-2012) System Demonstrations Track, Montpellier, France, August 27-31 , 2012, volume 242 of Frontiers in Artificial Intelligence and Applications, pp. Prestigious Applications of Artificial Intelligence (PAIS-2012) System Demonstrations Track, Montpellier, France, August 27-31 , 2012 volume 242 of Frontiers in Artificial Intelligence and Applications, pp。 0.85
913–914. IOS Press, 2012. doi: 10. 913–914. ios press, 2012 doi: 10。 0.68
3233/978-1-61499-098 -7-913. 3233/978-1-61499-098 -7-913. 0.24
URL https://doi. URL https://doi.com 0.68
org/10.3233/978-1-61 499-098-7-913. org/10.3233/978-1-61 499-098-7-913。 0.17
M¨uller, T., Spreitzenbarth, M., and Freiling, F. C. Forensic T., Spreitzenbarth, M., and Freiling, F. C. forensic 0.79
recovery of scrambled telephones, 2012. スクランブル電話の回復、2012年。 0.70
Nachmani, E. and Wolf, L. Hyper-graph-network decoders for block codes. Nachmani, E. and Wolf, L. Hyper-graph-network Decoders for block codes 0.82
Advances in Neural Information Processing Systems, 32:2329–2339, 2019. Neural Information Processing Systems, 32:2329–2339, 2019。 0.88
Nyberg, K. Perfect nonlinear s-boxes. nyberg, k. perfect nonlinear s-boxes. 0.79
In Workshop on the Theory and Application of of Cryptographic Techniques, pp. 暗号技術の理論と応用に関するワークショップ, pp。 0.57
378–386. Springer, 1991. 378–386. 1991年、春。 0.67
Ooi, J. G. and Kam, K. H. A proof of concept on defending cold boot attack. Ooi, J. G. and Kam, K. H. コールドブート攻撃に対する概念実証。 0.78
In 2009 1st Asia Symposium on Quality Electronic Design, pp. 2009年、第1回アジア品質電子設計シンポジウムを開催。 0.83
330–335. IEEE, 2009. 330–335. 2009年、IEEE。 0.69
Quisquater, J.-J. A new tool for non-intrusive analysis of smart cards based on electro-magnetic emissions. クイズ、J.J.。 電磁放射に基づくスマートカードの非侵入解析のための新しいツール 0.60
the sema and dema methods. セマとデマの方法です 0.64
Eurocrypt2000 rump session, 2000. Eurocrypt 2000 Rump session, 2000。 0.84
Raviv, T., Raviv, N., and Be’ery, Y. Data-driven ensembles In 2020 for deep and hard-decision hybrid decoding. Raviv, T., Raviv, N., and Be’ery, Y. データ駆動のアンサンブル 2020年、ディープでハードなハイブリッドデコードのためのアンサンブル。 0.70
IEEE International Symposium on Information Theory (ISIT), pp. IEEE International Symposium on Information Theory (ISIT), pp。 0.76
321–326. IEEE, 2020. 321–326. IEEE、2020年。 0.80
Sayakkara, A., Le-Khac, N.-A., and Scanlon, M. A survey of electromagnetic side-channel attacks and discussion on their case-progressing potential for digital forensics. Sayakkara, A., Le-Khac, N.-A., Scanlon, M. A survey of electromagnetic side-channel attack and discussion on their case-progressing potential for digitalforensics。 0.88
Digital Investigation, 29:43–54, 2019. デジタル調査、29:43-54、2019。 0.60
Shlezinger, N., Fu, R., and Eldar, Y. C. Deepsic: Deep soft interference cancellation for multiuser mimo detection. Shlezinger, N., Fu, R., and Eldar, Y. C. Deepsic: マルチユーザマイモ検出のためのディープソフト干渉キャンセル。 0.82
IEEE Transactions on Wireless Communications, 2020. IEEE Transactions on Wireless Communications、2020年。 0.88
Silva, J. P. M. and Sakallah, K. A. Grasp—a new search algorithm for satisfiability. Silva, J. P. M. and Sakallah, K. A. Grasp — 満足度のための新しい検索アルゴリズム。 0.71
In The Best of ICCAD, pp. The Best of ICCAD, pp。 0.67
73–89. Springer, 2003. 73–89. 2003年、春。 0.66
Skorobogatov, S. Data remanence in flash memory devices. Skorobogatov, S. Data Remanence in flash memory devices 0.78
In International Workshop on Cryptographic Hardware and Embedded Systems, pp. International Workshop on Cryptographic Hardware and Embedded Systems, pp. 0.77
339–353. Springer, 2005. 339–353. 2005年、スプリンガー。 0.66
Tal, I. and Vardy, A. Tal, I. and Vardy, A. 0.94
How to construct polar codes. 極性コードの構築方法。 0.59
IEEE Transactions on Information Theory, 59(10):6562–6582, 2013. IEEE Transactions on Information Theory, 59(10):6562–6582, 2013 0.92
Tanigaki, T. and Kunihiro, N. Maximum likelihood-based key recovery algorithm from decayed key schedules. 谷垣, t., 国広, n. 崩壊した鍵スケジュールから最大確率に基づく鍵復元アルゴリズム。 0.71
In ICISC 2015, pp. ICISC 2015』に収録。 0.51
314–328. Springer, 2015. 314–328. 2015年、春。 0.64
Teng, C.-F., Wu, C.-H. D., Ho, A. K.-S., and Wu, A.-Y. Teng, C.-F., Wu, C.-H.D., Ho, A. K.-S., Wu, A.-Y。 0.79
A. Low-complexity recurrent neural network-based polar decoder with weight quantization mechanism. a. 重み量子化機構を有する低複雑さリカレントニューラルネットワークに基づく極性デコーダ 0.70
In ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. ICASSP 2019-2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) pp。 0.81
1413–1417. 1413–1417. 0.71
IEEE, 2019. 2019年、IEEE。 0.67
Tsow, A. An improved recovery algorithm for decayed aes key schedule images. タウ、A。 崩壊したaesキースケジュール画像の回復アルゴリズムの改良 0.73
In International Workshop on Selected Areas in Cryptography, pp. In International Workshop on Selected Areas in Cryptography, pp. 0.85
215–230. Springer, 2009. 215–230. 2009年春。 0.61
Nachmani, E., Be’ery, Y., and Burshtein, D. Learning to decode linear codes using deep learning. Nachmani, E., Be’ery, Y., Burshtein, D. ディープラーニングを使って線形コードをデコードする学習。 0.81
In 2016 54th Annual Allerton Conference on Communication, Control, and Computing (Allerton), pp. 2016年 54th Annual Allerton Conference on Communication, Control and Computing (Allerton), pp。 0.77
341–346. IEEE, 2016. 341–346. 2016年、IEEE。 0.66
Xu, W., Wu, Z., Ueng, Y.-L., You, X., and Zhang, C. Improved polar decoder based on deep learning. xu, w., wu, z., ueng, y.-l., you, x., zhang, c. 深層学習に基づく極性デコーダの改良。
訳抜け防止モード: Xu, W., Wu, Z., Ueng, Y.-L., You, X. そしてZhang, C。 深層学習に基づく極性デコーダの改良。
0.84
In 2017 IEEE International workshop on signal processing systems (SiPS), pp. 2017年、IEEE International Workshop on Signal Processing System (SiPS, pp。 0.68
1–6. IEEE, 2017. 1–6. 2017年、IEEE。 0.67
英語(論文から抽出)日本語訳スコア
Recovering AES Keys with a Deep Cold Boot Attack ディープコールドブートアタックによるAESキーの復元 0.70
Yitbarek, S. F., Aga, M. T., Das, R., and Austin, T. Cold boot attacks are still hot: Security analysis of memory scramblers in modern processors. yitbarek, s. f., aga, m. t., das, r., austin, t. cold boot attackはまだホットだ。
訳抜け防止モード: Yitbarek, S. F., Aga, M. T., Das, R. そして、オースチン、T.コールドブート攻撃はまだ熱い。現代のプロセッサにおけるメモリスクランブラのセキュリティ分析。
0.79
In 2017 IEEE International Symposium on High Performance Computer Architecture (HPCA), pp. 2017年、IEEE International Symposium on High Performance Computer Architecture (HPCA) に参加。 0.77
313–324. IEEE, 2017. 313–324. 2017年、IEEE。 0.67
Zengler, C. Logicng library. Zengler, C. Logicngライブラリ。 0.92
https://github.com/ https://github.com/ 0.52
logic-ng/LogicNG. logic-ng/LogicNG 0.55
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。