論文の概要: Neural-Inspired Advances in Integral Cryptanalysis
- arxiv url: http://arxiv.org/abs/2505.10790v1
- Date: Fri, 16 May 2025 02:05:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.874589
- Title: Neural-Inspired Advances in Integral Cryptanalysis
- Title(参考訳): 統合的クリプトアナリシスにおけるニューラルインスピレーションの進歩
- Authors: Liu Zhang, Yiran Yao, Danping Shi, Dongchen Chai, Jian Guo, Zilong Wang,
- Abstract要約: ニューラルネットワークを用いて、積分特性に関連する特徴を学習する。
これらの結果は,ニューラルネットワークを用いた特徴探索の枠組みを検証した。
我々は,モデル精度と計算効率のバランスをとるミドルサーチフレームワークにおける会議を開発する。
- 参考スコア(独自算出の注目度): 9.165382546096117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The study by Gohr et.al at CRYPTO 2019 and sunsequent related works have shown that neural networks can uncover previously unused features, offering novel insights into cryptanalysis. Motivated by these findings, we employ neural networks to learn features specifically related to integral properties and integrate the corresponding insights into optimized search frameworks. These findings validate the framework of using neural networks for feature exploration, providing researchers with novel insights that advance established cryptanalysis methods. Neural networks have inspired the development of more precise integral search models. By comparing the integral distinguishers obtained via neural networks with those identified by classical methods, we observe that existing automated search models often fail to find optimal distinguishers. To address this issue, we develop a meet in the middle search framework that balances model accuracy and computational efficiency. As a result, we reduce the number of active plaintext bits required for an 11 rounds integral distinguisher on SKINNY64/64, and further identify a 12 rounds key dependent integral distinguisher achieving one additional round over the previous best-known result. The integral distinguishers discovered by neural networks enable key recovery attacks on more rounds. We identify a 7 rounds key independent integral distinguisher from neural networks with even only one active plaintext cell, which is based on linear combinations of bits. This distinguisher enables a 15 rounds key recovery attack on SKINNYn/n, improving upon the previous record by one round. Additionally, we discover an 8 rounds key dependent integral distinguisher using neural network that further reduces the time complexity of key recovery attacks against SKINNY.
- Abstract(参考訳): CRYPTO 2019のGohrらによる研究とそれに関連する研究は、ニューラルネットワークが未使用の機能を発見でき、暗号解析に関する新たな洞察を提供することを示した。
これらの知見に触発されて、ニューラルネットワークを用いて、積分特性に特有な特徴を学習し、対応する洞察を最適化された検索フレームワークに統合する。
これらの知見は,ニューラルネットワークを用いた特徴探索の枠組みを検証し,確立された暗号解析手法を推し進める新たな洞察を研究者に提供する。
ニューラルネットワークはより正確な積分探索モデルの開発にインスピレーションを与えている。
ニューラルネットワークを用いて得られる積分微分器と古典的手法で同定された積分微分器を比較することにより、既存の自動探索モデルは最適な微分器を見つけるのに失敗することが多いことを観察する。
この問題に対処するため、モデル精度と計算効率のバランスをとるミドルサーチフレームワークの会議を開発する。
その結果、SKINNY64/64において、11ラウンドの積分微分器に必要なアクティブな平文ビット数を削減し、さらに12ラウンドの鍵依存積分微分器を識別し、前回の最もよく知られた結果よりも1ラウンド追加する。
ニューラルネットワークによって発見された積分微分器は、より多くのラウンドに対する重要なリカバリ攻撃を可能にする。
我々は、ビットの線形結合に基づく1つのアクティブな平文セルさえあれば、ニューラルネットワークと7ラウンドの独立独立積分区別器を識別する。
この区別器は、SKINNYn/nに対する15ラウンドのキーリカバリ攻撃を可能にし、前回の記録を1ラウンド改善する。
さらに、ニューラルネットワークを用いて8ラウンドの鍵依存積分微分器を発見し、SKINNYに対する鍵回復攻撃の時間的複雑さをさらに軽減する。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Stable Learning Using Spiking Neural Networks Equipped With Affine Encoders and Decoders [2.0072624123275533]
スパイクニューラルネットワークに関連する学習問題について検討する。
我々は、正のシナプス重みしか持たない単純なスパイキングニューロンからなるスパイキングニューラルネットワークに焦点を当てた。
特に、アフィンスパイクニューラルネットワークが浅いReLUニューラルネットワークを近似できるという理論とシミュレーションを示す。
論文 参考訳(メタデータ) (2024-04-06T08:17:07Z) - Deception Detection from Linguistic and Physiological Data Streams Using Bimodal Convolutional Neural Networks [19.639533220155965]
本稿では,畳み込み型ニューラルネットワークのマルチモーダルな騙し検出への応用について検討する。
2つのトピックについて104人の被験者にインタビューして構築したデータセットを使用します。
論文 参考訳(メタデータ) (2023-11-18T02:44:33Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Neural Networks with Sparse Activation Induced by Large Bias: Tighter Analysis with Bias-Generalized NTK [86.45209429863858]
ニューラル・タンジェント・カーネル(NTK)における一層ReLUネットワークのトレーニングについて検討した。
我々は、ニューラルネットワークが、テクティトビア一般化NTKと呼ばれる異なる制限カーネルを持っていることを示した。
ニューラルネットの様々な特性をこの新しいカーネルで研究する。
論文 参考訳(メタデータ) (2023-01-01T02:11:39Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z) - Deep Randomized Neural Networks [12.333836441649343]
ランダム化されたニューラルネットワークは、ほとんどの接続が固定されたニューラルネットワークの挙動を探索する。
本章はランダム化ニューラルネットワークの設計と解析に関する主要な側面をすべて調査する。
論文 参考訳(メタデータ) (2020-02-27T17:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。