論文の概要: Can Transformers Break Encryption Schemes via In-Context Learning?
- arxiv url: http://arxiv.org/abs/2508.10235v1
- Date: Wed, 13 Aug 2025 23:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.136155
- Title: Can Transformers Break Encryption Schemes via In-Context Learning?
- Title(参考訳): トランスフォーマーはインコンテキスト学習を通じて暗号化スキームを破ることができるか?
- Authors: Jathin Korrapati, Patrick Mendoza, Aditya Tomar, Abein Abraham,
- Abstract要約: In-context Learning (ICL)は、トランスフォーマーベースの言語モデルの強力な能力として登場した。
暗号関数学習分野におけるICLの新たな応用を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-context learning (ICL) has emerged as a powerful capability of transformer-based language models, enabling them to perform tasks by conditioning on a small number of examples presented at inference time, without any parameter updates. Prior work has shown that transformers can generalize over simple function classes like linear functions, decision trees, even neural networks, purely from context, focusing on numerical or symbolic reasoning over underlying well-structured functions. Instead, we propose a novel application of ICL into the domain of cryptographic function learning, specifically focusing on ciphers such as mono-alphabetic substitution and Vigen\`ere ciphers, two classes of private-key encryption schemes. These ciphers involve a fixed but hidden bijective mapping between plain text and cipher text characters. Given a small set of (cipher text, plain text) pairs, the goal is for the model to infer the underlying substitution and decode a new cipher text word. This setting poses a structured inference challenge, which is well-suited for evaluating the inductive biases and generalization capabilities of transformers under the ICL paradigm. Code is available at https://github.com/adistomar/CS182-project.
- Abstract(参考訳): インコンテキスト学習(ICL)は、トランスフォーマーベースの言語モデルの強力な能力として登場し、パラメータを更新することなく、推論時に提示された少数の例を条件にすることでタスクを実行することができる。
以前の研究によると、トランスフォーマーは線形関数や決定木、ニューラルネットワークといった単純な関数クラスよりも、純粋に文脈から、基礎となるよく構造化された関数に対する数値的あるいは記号的推論に焦点をあてて一般化することができる。
代わりに、ICLの暗号関数学習分野への新たな応用を提案し、特に、モノ・アルファベティック置換やVigen\ere暗号のような暗号に焦点をあてる。
これらの暗号は、平文と暗号文の文字間の固定的かつ隠された形容詞マッピングを含む。
少数の(暗号文、平文)ペアが与えられた場合、モデルが基礎となる置換を推論し、新しい暗号文語をデコードすることが目的である。
この設定は、ICLパラダイムの下での変圧器の帰納バイアスと一般化能力を評価するのに適した構造的推論課題である。
コードはhttps://github.com/adistomar/CS182-projectで入手できる。
関連論文リスト
- PaTH Attention: Position Encoding via Accumulating Householder Transformations [56.32365080761523]
PaTHは、ハウステリア変換の累積積に基づいて、フレキシブルなデータ依存位置符号化方式である。
家庭用行列の積をコンパクトに表現することで,効率的な並列学習アルゴリズムを導出する。
論文 参考訳(メタデータ) (2025-05-22T08:36:09Z) - Compile-Time Fully Homomorphic Encryption of Vectors: Eliminating Online Encryption via Algebraic Basis Synthesis [1.3824176915623292]
暗号文は、事前計算された暗号化ベースベクターとランタイムスケールの0の暗号化を組み合わせた構成である。
ランダム化された$mathbbZ_t$-加群として定式化し、標準仮定の下でIND-CPAセキュリティを満たすことを証明した。
ゼロのランダムな暗号のプールを必要とする以前の設計とは異なり、我々の構成は実行時に新しいスカラーによって乗算された1つのゼロ暗号文を用いて等価なセキュリティを実現する。
論文 参考訳(メタデータ) (2025-05-19T00:05:18Z) - ICL CIPHERS: Quantifying "Learning'' in In-Context Learning via Substitution Ciphers [20.65223270978325]
ICL CIPHERSは,古典暗号から借用された置換暗号に基づくタスク修正のクラスである。
このアプローチでは、文脈内入力におけるトークンのサブセットが他の(無関係な)トークンに置換され、英語の文は人間の目では理解できない。
我々は,ILC CIPHERSをNON-BIJECTIVE (unreversible)ベースラインよりもBIJECTIVEマッピングで解くのが優れていることを示す。
論文 参考訳(メタデータ) (2025-04-28T00:05:29Z) - Cryptanalysis on Lightweight Verifiable Homomorphic Encryption [7.059472280274008]
Verible Homomorphic Encryption (VHE) は、正則暗号 (HE) と検証計算 (VC) を統合する暗号技術である。
これは、アウトソース計算におけるプライバシと整合性の両方を保証するための重要な技術として機能する。
本稿では,暗号方式の同型性を利用した効率的な攻撃手法を提案する。
論文 参考訳(メタデータ) (2025-02-18T08:13:10Z) - Algorithmic Capabilities of Random Transformers [49.73113518329544]
埋め込み層のみを最適化したランダムトランスフォーマーによって、どのような関数が学習できるかを検討する。
これらのランダムなトランスフォーマーは、幅広い意味のあるアルゴリズムタスクを実行することができる。
以上の結果から,これらのモデルが訓練される前にも,アルゴリズム能力がトランスフォーマに存在することが示唆された。
論文 参考訳(メタデータ) (2024-10-06T06:04:23Z) - CipherSniffer: Classifying Cipher Types [0.0]
我々は復号化タスクを分類問題とする。
まず、転置、置換、テキストの反転、単語の反転、文のシフト、暗号化されていないテキストのデータセットを作成します。
論文 参考訳(メタデータ) (2023-06-13T20:18:24Z) - Memorization for Good: Encryption with Autoregressive Language Models [8.645826579841692]
自己回帰言語モデル(SELM)を用いた最初の対称暗号アルゴリズムを提案する。
自己回帰的LMは任意のデータをコンパクトな実数値ベクトル(すなわち暗号化)にエンコードし、ランダムな部分空間最適化とgreedy復号によってベクトルを元のメッセージ(すなわち復号)に無作為に復号できることを示す。
論文 参考訳(メタデータ) (2023-05-15T05:42:34Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Sentence Bottleneck Autoencoders from Transformer Language Models [53.350633961266375]
我々は、事前訓練されたフリーズトランスフォーマー言語モデルから文レベルのオートエンコーダを構築する。
我々は、文ボトルネックと1層修飾トランスフォーマーデコーダのみを訓練しながら、マスク付き言語モデリングの目的を生成的・認知的言語として適応する。
本研究では,テキスト類似性タスク,スタイル転送,単一文分類タスクにおける事前学習されたトランスフォーマーからの表現をGLUEベンチマークで抽出する手法よりも,大規模な事前学習モデルよりも少ないパラメータを用いて,より高品質な文表現を実現することを示す。
論文 参考訳(メタデータ) (2021-08-31T19:39:55Z) - Cross-Thought for Sentence Encoder Pre-training [89.32270059777025]
Cross-Thoughtは、事前トレーニングシーケンスエンコーダに対する新しいアプローチである。
我々は、Transformerベースのシーケンスエンコーダを、多数の短いシーケンスに対してトレーニングする。
質問応答とテキストのエンコーダタスクの実験は、事前学習したエンコーダが最先端のエンコーダより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-07T21:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。