論文の概要: ALICE: An Interpretable Neural Architecture for Generalization in Substitution Ciphers
- arxiv url: http://arxiv.org/abs/2509.07282v1
- Date: Mon, 08 Sep 2025 23:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.146213
- Title: ALICE: An Interpretable Neural Architecture for Generalization in Substitution Ciphers
- Title(参考訳): ALICE:置換暗号の一般化のための解釈可能なニューラルネットワーク
- Authors: Jeff Shen, Lindsay Smith,
- Abstract要約: 暗号解読は、複雑なドメインにおけるニューラルネットワークの一般化を研究するための理想的なテストベッドである。
我々は,この復号化問題の精度と速度を両立させる,シンプルなエンコーダのみの変換器であるALICEを開発した。
我々は、ALICEが、このタスクの一般的な人的戦略を反映しているように見える方法で、その予測を段階的に洗練する様子を示す。
- 参考スコア(独自算出の注目度): 0.3403377445166164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present cryptogram solving as an ideal testbed for studying neural network generalization in combinatorially complex domains. In this task, models must decrypt text encoded with substitution ciphers, choosing from 26! possible mappings without explicit access to the cipher. We develop ALICE (an Architecture for Learning Interpretable Cryptogram dEcipherment): a simple encoder-only Transformer that sets a new state-of-the-art for both accuracy and speed on this decryption problem. Surprisingly, ALICE generalizes to unseen ciphers after training on only ${\sim}1500$ unique ciphers, a minute fraction ($3.7 \times 10^{-24}$) of the possible cipher space. To enhance interpretability, we introduce a novel bijective decoding head that explicitly models permutations via the Gumbel-Sinkhorn method, enabling direct extraction of learned cipher mappings. Through early exit analysis, we reveal how ALICE progressively refines its predictions in a way that appears to mirror common human strategies for this task: early layers employ frequency-based heuristics, middle layers form word structures, and final layers correct individual characters. Our architectural innovations and analysis methods extend beyond cryptograms to any domain with bijective mappings and combinatorial structure, offering new insights into neural network generalization and interpretability.
- Abstract(参考訳): 本稿では、組合せ複雑領域におけるニューラルネットワークの一般化を研究するための理想的なテストベッドとして、暗号解法を提案する。
このタスクでは、モデルは置換暗号で符号化されたテキストを復号する必要がある。
ALICE (Architecture for Learning Interpretable Cryptogram dEcipherment): この復号化問題に対する精度と速度の両立を図った,簡単なエンコーダのみの変換器。
驚くべきことに、ALICEは${\sim}1500$ユニークな暗号のみをトレーニングした後で、可能な暗号空間の分数(3.7 \times 10^{-24}$)を一般化する。
解釈性を高めるために,Gumbel-Sinkhorn 法を用いて命令を明示的にモデル化し,学習した暗号マッピングの直接抽出を可能にする,新しいビジェクティブデコーディングヘッドを導入する。
アーリーエグゼクティブ分析により、ALICEは、このタスクの一般的な人間の戦略を反映するように、どのようにして予測を段階的に洗練するかを明らかにする: アーリーレイヤは周波数ベースのヒューリスティック、中間レイヤはワード構造、最終レイヤは個々の文字を補正する。
私たちのアーキテクチャの革新と分析方法は、暗号グラフを超えて、客観的マッピングと組合せ構造を持つ任意のドメインに拡張され、ニューラルネットワークの一般化と解釈可能性に関する新たな洞察を提供する。
関連論文リスト
- Can Transformers Break Encryption Schemes via In-Context Learning? [0.0]
In-context Learning (ICL)は、トランスフォーマーベースの言語モデルの強力な能力として登場した。
暗号関数学習分野におけるICLの新たな応用を提案する。
論文 参考訳(メタデータ) (2025-08-13T23:09:32Z) - Using Modular Arithmetic Optimized Neural Networks To Crack Affine Cryptographic Schemes Efficiently [0.27309692684728615]
ハイブリッドニューラルネットワークアーキテクチャを用いたアフィン暗号の暗号解析について検討する。
提案手法は, 生の暗号文列を処理するモジュール分岐と, 文字の周波数特性を利用する統計分岐を統合する。
論文 参考訳(メタデータ) (2025-07-17T04:54:10Z) - Singularity Cipher: A Topology-Driven Cryptographic Scheme Based on Visual Paradox and Klein Bottle Illusions [0.0]
Singularity Cipherは、位相変換と視覚パラドックスを統合し、多次元セキュリティを実現する。
得られたバイナリデータは、欠落した正方形のパラドックスのような知覚的錯覚を使って符号化され、暗号化されたコンテンツの存在を視覚的に隠蔽する。
アーキテクチャを形式化し、暗号化と復号アルゴリズムを提供し、セキュリティ特性を評価し、古典的、ポストクアンタム、ステガノグラフィーのアプローチと比較する。
論文 参考訳(メタデータ) (2025-07-02T04:44:52Z) - Transformers -- Messages in Disguise [3.74142789780782]
NNベースの暗号は、ランダムな暗号スキームを学習し実装する能力のために研究されている。
Rは、(i)投影層、(ii)逆投影層、(iii)ドット生成層という3つの新しいNN層から構成される。
その結果、(i) が計算効率が高く、(ii) 暗号化されたメッセージが一意であること、(iii) が通信オーバーヘッドを誘発しないことが保証される。
論文 参考訳(メタデータ) (2024-11-15T15:42:29Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Revocable Cryptography from Learning with Errors [61.470151825577034]
我々は、量子力学の非閉鎖原理に基づいて、キー呼び出し機能を備えた暗号スキームを設計する。
我々は、シークレットキーが量子状態として表現されるスキームを、シークレットキーが一度ユーザから取り消されたら、それらが以前と同じ機能を実行する能力を持たないことを保証して検討する。
論文 参考訳(メタデータ) (2023-02-28T18:58:11Z) - Real-World Compositional Generalization with Disentangled
Sequence-to-Sequence Learning [81.24269148865555]
最近提案されたDunangled sequence-to-sequence model (Dangle)は、有望な一般化能力を示している。
このモデルに2つの重要な変更を加え、より不整合表現を奨励し、その計算とメモリ効率を改善する。
具体的には、各タイミングでソースキーと値を適応的に再エンコードするのではなく、表現をアンタングルし、キーを定期的に再エンコードする。
論文 参考訳(メタデータ) (2022-12-12T15:40:30Z) - Segmenting Numerical Substitution Ciphers [27.05304607253758]
歴史的置換暗号の解読は難しい問題である。
Byte Pair を用いてそれらの暗号を分割する最初の自動手法を提案する。
また、格子と事前学習言語モデルを用いて、既存のキーで非決定論的暗号を解く方法を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:45:59Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。