論文の概要: ALICE: An Interpretable Neural Architecture for Generalization in Substitution Ciphers
- arxiv url: http://arxiv.org/abs/2509.07282v2
- Date: Thu, 25 Sep 2025 01:15:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 14:16:56.045996
- Title: ALICE: An Interpretable Neural Architecture for Generalization in Substitution Ciphers
- Title(参考訳): ALICE:置換暗号の一般化のための解釈可能なニューラルネットワーク
- Authors: Jeff Shen, Lindsay M. Smith,
- Abstract要約: 本稿では、ニューラルネットワークの推論と一般化を研究するための理想的なテストベッドとして、暗号解法を提案する。
我々は,この復号化問題の精度と速度を両立させる,シンプルなエンコーダのみの変換器であるALICEを開発した。
驚くべきことに、ALICEはsim1500$のユニークな暗号をトレーニングした後、目に見えない暗号に一般化している。
- 参考スコア(独自算出の注目度): 0.3403377445166164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present cryptogram solving as an ideal testbed for studying neural network reasoning and generalization; models must decrypt text encoded with substitution ciphers, choosing from 26! possible mappings without explicit access to the cipher. We develop ALICE (an Architecture for Learning Interpretable Cryptogram dEcipherment), a simple encoder-only Transformer that sets a new state-of-the-art for both accuracy and speed on this decryption problem. Surprisingly, ALICE generalizes to unseen ciphers after training on only ${\sim}1500$ unique ciphers, a minute fraction ($3.7 \times 10^{-24}$) of the possible cipher space. To enhance interpretability, we introduce a novel bijective decoding head that explicitly models permutations via the Gumbel-Sinkhorn method, enabling direct extraction of learned cipher mappings. Through early exit and probing experiments, we reveal how ALICE progressively refines its predictions in a way that appears to mirror common human strategies -- early layers place greater emphasis on letter frequencies, while later layers form word-level structures. Our architectural innovations and analysis methods are applicable beyond cryptograms and offer new insights into neural network generalization and interpretability.
- Abstract(参考訳): モデルは置換暗号で符号化されたテキストを復号し、暗号に明示的にアクセスせずに26!のマッピングから選択する必要がある。
我々は,この復号化問題の精度と速度を両立させる,簡単なエンコーダのみの変換器であるALICE(Structure for Learning Interpretable Cryptogram dEcipherment)を開発した。
驚くべきことに、ALICEは${\sim}1500$ユニークな暗号のみをトレーニングした後で、可能な暗号空間の分数(3.7 \times 10^{-24}$)を一般化する。
解釈性を高めるために,Gumbel-Sinkhorn 法を用いて命令を明示的にモデル化し,学習した暗号マッピングの直接抽出を可能にする,新しいビジェクティブデコーディングヘッドを導入する。
アーリー・エグジットと調査実験を通じて、ALICEは一般的な人間の戦略を反映した形で、どのようにして予測を段階的に洗練するかを明らかにします。
私たちのアーキテクチャの革新と分析方法は、暗号法を越えて適用でき、ニューラルネットワークの一般化と解釈可能性に関する新たな洞察を提供する。
関連論文リスト
- Can Transformers Break Encryption Schemes via In-Context Learning? [0.0]
In-context Learning (ICL)は、トランスフォーマーベースの言語モデルの強力な能力として登場した。
暗号関数学習分野におけるICLの新たな応用を提案する。
論文 参考訳(メタデータ) (2025-08-13T23:09:32Z) - Using Modular Arithmetic Optimized Neural Networks To Crack Affine Cryptographic Schemes Efficiently [0.27309692684728615]
ハイブリッドニューラルネットワークアーキテクチャを用いたアフィン暗号の暗号解析について検討する。
提案手法は, 生の暗号文列を処理するモジュール分岐と, 文字の周波数特性を利用する統計分岐を統合する。
論文 参考訳(メタデータ) (2025-07-17T04:54:10Z) - Singularity Cipher: A Topology-Driven Cryptographic Scheme Based on Visual Paradox and Klein Bottle Illusions [0.0]
Singularity Cipherは、位相変換と視覚パラドックスを統合し、多次元セキュリティを実現する。
得られたバイナリデータは、欠落した正方形のパラドックスのような知覚的錯覚を使って符号化され、暗号化されたコンテンツの存在を視覚的に隠蔽する。
アーキテクチャを形式化し、暗号化と復号アルゴリズムを提供し、セキュリティ特性を評価し、古典的、ポストクアンタム、ステガノグラフィーのアプローチと比較する。
論文 参考訳(メタデータ) (2025-07-02T04:44:52Z) - Transformers -- Messages in Disguise [3.74142789780782]
NNベースの暗号は、ランダムな暗号スキームを学習し実装する能力のために研究されている。
Rは、(i)投影層、(ii)逆投影層、(iii)ドット生成層という3つの新しいNN層から構成される。
その結果、(i) が計算効率が高く、(ii) 暗号化されたメッセージが一意であること、(iii) が通信オーバーヘッドを誘発しないことが保証される。
論文 参考訳(メタデータ) (2024-11-15T15:42:29Z) - GEC-DePenD: Non-Autoregressive Grammatical Error Correction with
Decoupled Permutation and Decoding [52.14832976759585]
文法的誤り訂正(GEC)は、通常自己回帰的なシーケンス・ツー・シーケンスモデルで解決される重要なNLPタスクである。
本稿では, アーキテクチャを置換ネットワークに分離する, GEC に対する非自己回帰的アプローチを提案する。
GECの既知の非自己回帰手法よりもネットワークが向上することを示す。
論文 参考訳(メタデータ) (2023-11-14T14:24:36Z) - Revocable Cryptography from Learning with Errors [61.470151825577034]
我々は、量子力学の非閉鎖原理に基づいて、キー呼び出し機能を備えた暗号スキームを設計する。
我々は、シークレットキーが量子状態として表現されるスキームを、シークレットキーが一度ユーザから取り消されたら、それらが以前と同じ機能を実行する能力を持たないことを保証して検討する。
論文 参考訳(メタデータ) (2023-02-28T18:58:11Z) - Real-World Compositional Generalization with Disentangled
Sequence-to-Sequence Learning [81.24269148865555]
最近提案されたDunangled sequence-to-sequence model (Dangle)は、有望な一般化能力を示している。
このモデルに2つの重要な変更を加え、より不整合表現を奨励し、その計算とメモリ効率を改善する。
具体的には、各タイミングでソースキーと値を適応的に再エンコードするのではなく、表現をアンタングルし、キーを定期的に再エンコードする。
論文 参考訳(メタデータ) (2022-12-12T15:40:30Z) - Segmenting Numerical Substitution Ciphers [27.05304607253758]
歴史的置換暗号の解読は難しい問題である。
Byte Pair を用いてそれらの暗号を分割する最初の自動手法を提案する。
また、格子と事前学習言語モデルを用いて、既存のキーで非決定論的暗号を解く方法を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:45:59Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。