論文の概要: Can Sequence-to-Sequence Models Crack Substitution Ciphers?
- arxiv url: http://arxiv.org/abs/2012.15229v1
- Date: Wed, 30 Dec 2020 17:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:01:10.557185
- Title: Can Sequence-to-Sequence Models Crack Substitution Ciphers?
- Title(参考訳): クラック置換暗号はシーケンス・ツー・シーケンス・モデルでも可能か?
- Authors: Nada Aldarrab and Jonathan May
- Abstract要約: 最先端の解読法は、ビームサーチとニューラルネットワークモデルを用いて、与えられた暗号に対する候補仮説を評価する。
提案手法は明示的な言語識別を伴わずにテキストを解読でき,雑音に対して頑健であることを示す。
- 参考スコア(独自算出の注目度): 15.898270650875158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decipherment of historical ciphers is a challenging problem. The language of
the target plaintext might be unknown, and ciphertext can have a lot of noise.
State-of-the-art decipherment methods use beam search and a neural language
model to score candidate plaintext hypotheses for a given cipher, assuming
plaintext language is known. We propose an end-to-end multilingual model for
solving simple substitution ciphers. We test our model on synthetic and real
historical ciphers and show that our proposed method can decipher text without
explicit language identification and can still be robust to noise.
- Abstract(参考訳): 歴史的暗号の解読は難しい問題である。
ターゲットの平文の言語は不明であり、暗号文には多くのノイズがある。
State-of-the-art decipherment法では、ビームサーチとニューラル言語モデルを用いて、与えられた暗号に対する候補平文仮説をスコアリングする。
簡単な置換暗号を解くためのエンドツーエンド多言語モデルを提案する。
提案手法は,テキストを明示的な言語識別なしに解読可能であり,なおも雑音に対して頑健であることを示す。
関連論文リスト
- Reverse-Engineering Decoding Strategies Given Blackbox Access to a
Language Generation System [73.52878118434147]
テキスト生成に使用する復号法をリバースエンジニアリングする手法を提案する。
どのようなデコード戦略が使われたかを検出する能力は、生成されたテキストを検出することに影響を及ぼす。
論文 参考訳(メタデータ) (2023-09-09T18:19:47Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [89.45365898940896]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - Classifying World War II Era Ciphers with Machine Learning [1.6317061277457]
我々は第二次世界大戦のエニグマ、M-209、Sigaba、Purple、Typexを分類する。
古典的な機械学習モデルは、少なくともディープラーニングモデルと同様に機能する。
設計においてより類似した暗号は、区別するのがやや難しいが、予想されるほど難しくはない。
論文 参考訳(メタデータ) (2023-07-02T07:20:47Z) - CipherSniffer: Classifying Cipher Types [0.0]
我々は復号化タスクを分類問題とする。
まず、転置、置換、テキストの反転、単語の反転、文のシフト、暗号化されていないテキストのデータセットを作成します。
論文 参考訳(メタデータ) (2023-06-13T20:18:24Z) - Lexinvariant Language Models [84.2829117441298]
離散語彙記号から連続ベクトルへの写像であるトークン埋め込みは、任意の言語モデル(LM)の中心にある
我々は、語彙記号に不変であり、したがって実際に固定トークン埋め込みを必要としないテクスチトレキシン変種モデルについて研究する。
十分長い文脈を条件として,レキシン変項LMは標準言語モデルに匹敵する難易度が得られることを示す。
論文 参考訳(メタデータ) (2023-05-24T19:10:46Z) - Memorization for Good: Encryption with Autoregressive Language Models [8.645826579841692]
自己回帰言語モデル(SELM)を用いた最初の対称暗号アルゴリズムを提案する。
自己回帰的LMは任意のデータをコンパクトな実数値ベクトル(すなわち暗号化)にエンコードし、ランダムな部分空間最適化とgreedy復号によってベクトルを元のメッセージ(すなわち復号)に無作為に復号できることを示す。
論文 参考訳(メタデータ) (2023-05-15T05:42:34Z) - A Non-monotonic Self-terminating Language Model [62.93465126911921]
本稿では,不完全復号アルゴリズムによる非終端列の問題に焦点をあてる。
まず、グリーディ探索、トップ$kのサンプリング、核サンプリングを含む不完全確率復号アルゴリズムを定義する。
次に,単調な終端確率の制約を緩和する非単調な自己終端言語モデルを提案する。
論文 参考訳(メタデータ) (2022-10-03T00:28:44Z) - Segmenting Numerical Substitution Ciphers [27.05304607253758]
歴史的置換暗号の解読は難しい問題である。
Byte Pair を用いてそれらの暗号を分割する最初の自動手法を提案する。
また、格子と事前学習言語モデルを用いて、既存のキーで非決定論的暗号を解く方法を提案する。
論文 参考訳(メタデータ) (2022-05-25T06:45:59Z) - Near-imperceptible Neural Linguistic Steganography via Self-Adjusting
Arithmetic Coding [88.31226340759892]
本稿では,ニューラルネットワークモデルに基づく自己調整型算術符号を用いた秘密メッセージを符号化する新しい言語ステガノグラフィー手法を提案する。
人間の評価によると、生成されたカバーテキストの51%は、実際に盗聴器を騙すことができる。
論文 参考訳(メタデータ) (2020-10-01T20:40:23Z) - A Few-shot Learning Approach for Historical Ciphered Manuscript
Recognition [3.0682439731292592]
少数ショットオブジェクト検出に基づく手書き音声認識のための新しい手法を提案する。
合成データのトレーニングにより,提案アーキテクチャは未知のアルファベットで手書きの暗号を認識可能であることを示す。
論文 参考訳(メタデータ) (2020-09-26T11:49:18Z) - Limits of Detecting Text Generated by Large-Scale Language Models [65.46403462928319]
誤情報キャンペーンで使用される可能性があるため、長く一貫性のあるテキストを生成できる大規模な言語モデルが危険であると考える者もいる。
ここでは、仮説テスト問題として大規模言語モデル出力検出を定式化し、テキストを真あるいは生成されたものと分類する。
論文 参考訳(メタデータ) (2020-02-09T19:53:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。