論文の概要: Breaking Indistinguishability with Transfer Learning: A First Look at SPECK32/64 Lightweight Block Ciphers
- arxiv url: http://arxiv.org/abs/2405.19683v1
- Date: Thu, 30 May 2024 04:40:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-31 18:06:52.671540
- Title: Breaking Indistinguishability with Transfer Learning: A First Look at SPECK32/64 Lightweight Block Ciphers
- Title(参考訳): トランスファーラーニングによる識別不可能性の破滅:SPECK32/64軽量ブロック暗号の初見
- Authors: Jimmy Dani, Kalyan Nakka, Nitesh Saxena,
- Abstract要約: MIND-Cryptは、深層学習(DL)と伝達学習(TL)を用いてブロック暗号の不明瞭性に挑戦する新しい攻撃フレームワークである。
本手法は,同じ鍵を用いて暗号化された2つのメッセージの暗号文を用いたDLモデルのトレーニングを含む。
TLでは、トレーニング済みのDLモデルを特徴抽出器として使用し、これらの機能はXGBoostのような浅い機械学習のトレーニングに使用される。
- 参考スコア(独自算出の注目度): 1.5953412143328967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this research, we introduce MIND-Crypt, a novel attack framework that uses deep learning (DL) and transfer learning (TL) to challenge the indistinguishability of block ciphers, specifically SPECK32/64 encryption algorithm in CBC mode (Cipher Block Chaining) against Known Plaintext Attacks (KPA). Our methodology includes training a DL model with ciphertexts of two messages encrypted using the same key. The selected messages have the same byte-length and differ by only one bit at the binary level. This DL model employs a residual network architecture. For the TL, we use the trained DL model as a feature extractor, and these features are then used to train a shallow machine learning, such as XGBoost. This dual strategy aims to distinguish ciphertexts of two encrypted messages, addressing traditional cryptanalysis challenges. Our findings demonstrate that the DL model achieves an accuracy of approximately 99% under consistent cryptographic conditions (Same Key or Rounds) with the SPECK32/64 cipher. However, performance degrades to random guessing levels (50%) when tested with ciphertext generated from different keys or different encryption rounds of SPECK32/64. To enhance the results, the DL model requires retraining with different keys or encryption rounds using larger datasets (10^7 samples). To overcome this limitation, we implement TL, achieving an accuracy of about 53% with just 10,000 samples, which is better than random guessing. Further training with 580,000 samples increases accuracy to nearly 99%, showing a substantial reduction in data requirements by over 94%. This shows that an attacker can utilize machine learning models to break indistinguishability by accessing pairs of plaintexts and their corresponding ciphertexts encrypted with the same key, without directly interacting with the communicating parties.
- Abstract(参考訳): 本研究では,ブロック暗号の不明瞭性,特にCBCモード(Cipher Block Chaining)におけるSPECK32/64暗号アルゴリズム(KPA)に挑戦するために,深層学習(DL)と伝達学習(TL)を用いた新たな攻撃フレームワークであるMIND-Cryptを紹介する。
本手法は,同じ鍵を用いて暗号化された2つのメッセージの暗号文を用いたDLモデルのトレーニングを含む。
選択されたメッセージは同じバイト長で、バイナリレベルでは1ビットだけ異なる。
このDLモデルは残余のネットワークアーキテクチャを採用している。
TLでは、トレーニング済みのDLモデルを特徴抽出器として使用し、これらの機能はXGBoostのような浅い機械学習のトレーニングに使用される。
この二重戦略は、2つの暗号化されたメッセージの暗号文を区別することを目的としており、従来の暗号解析の課題に対処している。
その結果,SPECK32/64暗号を用いて,一貫した暗号条件(Same Key, Rounds)で約99%の精度が得られることがわかった。
しかし、異なるキーまたは異なる暗号化ラウンドのSPECK32/64から生成された暗号文でテストすると、性能はランダムな推測レベル(50%)に低下する。
結果を強化するために、DLモデルは、より大きなデータセット(10^7サンプル)を使用して、異なるキーや暗号化ラウンドで再トレーニングする必要がある。
この制限を克服するため、我々は1万サンプルで約53%の精度を達成し、ランダムな推測よりも優れているTLを実装した。
580,000サンプルによるさらなるトレーニングでは、精度が99%近く向上し、データ要求が94%以上削減された。
これは、攻撃者が機械学習モデルを使用して、通信相手と直接対話することなく、一対の平文とその対応する暗号文に同じキーで暗号化された暗号文にアクセスすることで、識別不能を破ることができることを示している。
関連論文リスト
- CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [85.18213923151717]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - Classifying World War II Era Ciphers with Machine Learning [1.6317061277457]
我々は第二次世界大戦のエニグマ、M-209、Sigaba、Purple、Typexを分類する。
古典的な機械学習モデルは、少なくともディープラーニングモデルと同様に機能する。
設計においてより類似した暗号は、区別するのがやや難しいが、予想されるほど難しくはない。
論文 参考訳(メタデータ) (2023-07-02T07:20:47Z) - Memorization for Good: Encryption with Autoregressive Language Models [8.645826579841692]
自己回帰言語モデル(SELM)を用いた最初の対称暗号アルゴリズムを提案する。
自己回帰的LMは任意のデータをコンパクトな実数値ベクトル(すなわち暗号化)にエンコードし、ランダムな部分空間最適化とgreedy復号によってベクトルを元のメッセージ(すなわち復号)に無作為に復号できることを示す。
論文 参考訳(メタデータ) (2023-05-15T05:42:34Z) - Backdoor Learning on Sequence to Sequence Models [94.23904400441957]
本稿では,シークエンス・ツー・シークエンス(seq2seq)モデルがバックドア攻撃に対して脆弱かどうかを検討する。
具体的には、データセットの0.2%のサンプルを注入するだけで、Seq2seqモデルに指定されたキーワードと文全体を生成することができる。
機械翻訳とテキスト要約に関する大規模な実験を行い、提案手法が複数のデータセットやモデルに対して90%以上の攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2023-05-03T20:31:13Z) - Quantum-enhanced symmetric cryptanalysis for S-AES [0.0]
ダウンスケールSimplifed-AES暗号に対するGroverの攻撃を最適化するアルゴリズムを提案する。
16ビットのS-AESの場合、提案された攻撃は一般に23量子ビットが必要であり、4,8,12ビットが折り畳みでリークされた場合、19,15,11である。
論文 参考訳(メタデータ) (2023-04-11T17:46:44Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Revocable Cryptography from Learning with Errors [61.470151825577034]
我々は、量子力学の非閉鎖原理に基づいて、キー呼び出し機能を備えた暗号スキームを設計する。
我々は、シークレットキーが量子状態として表現されるスキームを、シークレットキーが一度ユーザから取り消されたら、それらが以前と同じ機能を実行する能力を持たないことを保証して検討する。
論文 参考訳(メタデータ) (2023-02-28T18:58:11Z) - Recovering AES Keys with a Deep Cold Boot Attack [91.22679787578438]
コールドブート攻撃は、電源がシャットダウンされた直後に破損したランダムアクセスメモリを検査する。
本研究では,AES鍵に対する攻撃を適用するために,深誤り訂正符号手法の新たな暗号版とSATソルバ方式を併用する。
以上の結果から,本手法は攻撃方法の精度を極めて高いマージンで上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-06-09T07:57:01Z) - FFConv: Fast Factorized Neural Network Inference on Encrypted Data [9.868787266501036]
本稿では、畳み込みと暗号文のパッキングを統一するFFConvと呼ばれる低ランク分解法を提案する。
先行技術であるLoLaとFalconと比較して,提案手法は,それぞれ最大87%,12%の遅延を減少させる。
論文 参考訳(メタデータ) (2021-02-06T03:10:13Z) - TEDL: A Text Encryption Method Based on Deep Learning [10.428079716944463]
本稿では,TEDLと呼ばれる深層学習に基づく新しいテキスト暗号化手法を提案する。
実験および関連する分析の結果、TEDLはセキュリティ、効率、汎用性に優れ、キー再配布頻度の低いことが示されている。
論文 参考訳(メタデータ) (2020-03-09T11:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。