論文の概要: Benchmarking Large Language Models for Cryptanalysis and Side-Channel Vulnerabilities
- arxiv url: http://arxiv.org/abs/2505.24621v2
- Date: Wed, 17 Sep 2025 15:53:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 14:28:51.882082
- Title: Benchmarking Large Language Models for Cryptanalysis and Side-Channel Vulnerabilities
- Title(参考訳): Cryptanalysis と Side-Channel Vulnerabilities のための大規模言語モデルのベンチマーク
- Authors: Utsav Maskey, Chencheng Zhu, Usman Naseem,
- Abstract要約: 我々は,現在最先端の大規模言語モデル (LLM) の暗号文上での暗号解析の可能性を評価する。
ゼロショットと少数ショット設定を用いて、LLMの復号化成功率を評価し、その理解能力について議論する。
本研究は, LLMの強みと, サイドチャネルシナリオにおける限界に関する重要な知見を明らかにするとともに, 過度に一般化した攻撃に対する感受性に関する懸念を提起する。
- 参考スコア(独自算出の注目度): 12.669087812857533
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in large language models (LLMs) have transformed natural language understanding and generation, leading to extensive benchmarking across diverse tasks. However, cryptanalysis - a critical area for data security and its connection to LLMs' generalization abilities - remains underexplored in LLM evaluations. To address this gap, we evaluate the cryptanalytic potential of state-of-the-art LLMs on ciphertexts produced by a range of cryptographic algorithms. We introduce a benchmark dataset of diverse plaintexts, spanning multiple domains, lengths, writing styles, and topics, paired with their encrypted versions. Using zero-shot and few-shot settings along with chain-of-thought prompting, we assess LLMs' decryption success rate and discuss their comprehension abilities. Our findings reveal key insights into LLMs' strengths and limitations in side-channel scenarios and raise concerns about their susceptibility to under-generalization-related attacks. This research highlights the dual-use nature of LLMs in security contexts and contributes to the ongoing discussion on AI safety and security.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、自然言語の理解と生成に変化をもたらし、様々なタスクにまたがる広範なベンチマークにつながった。
しかし、データセキュリティとLLMの一般化能力との結びつきにとって重要な領域である暗号解析は、LLM評価において未調査のままである。
このギャップに対処するため,様々な暗号アルゴリズムが生成する暗号文に基づいて,最先端のLLMの暗号解析の可能性を評価する。
複数のドメイン、長さ、書き込みスタイル、トピックにまたがるさまざまなプレーンテキストのベンチマークデータセットを、暗号化されたバージョンと組み合わせて導入する。
ゼロショットと少数ショットの設定とチェーン・オブ・ソート・プロンプトを用いて,LLMの復号化成功率を評価し,その理解能力について議論する。
本研究は, LLMの強みと, サイドチャネルシナリオにおける限界に関する重要な知見を明らかにするとともに, 過度に一般化した攻撃に対する感受性に関する懸念を提起する。
この研究は、セキュリティの文脈におけるLLMのデュアルユース性を強調し、AIの安全性とセキュリティに関する継続的な議論に貢献する。
関連論文リスト
- AICrypto: A Comprehensive Benchmark For Evaluating Cryptography Capabilities of Large Language Models [18.222665072623755]
大規模言語モデル(LLM)は、様々な領域にまたがる顕著な機能を示している。
本ベンチマークでは, 複数選択質問135件, キャプチャー・ザ・フラッグ(CTF)150件, 証明問題18件からなる。
LLMをリードする17のモデルの評価は、最先端のモデルが暗号概念を記憶する上で、人間の専門家と一致しているか、さらに上回っていることを示している。
論文 参考訳(メタデータ) (2025-07-13T11:11:01Z) - MetaCipher: A General and Extensible Reinforcement Learning Framework for Obfuscation-Based Jailbreak Attacks on Black-Box LLMs [14.530593083777502]
難読化による脱獄攻撃は依然として有効である。
我々は,新しい難読化ベースの脱獄フレームワークである textbfMetaCipher を提案する。
わずか10クエリで、MetaCipherは92%以上のアタック成功率を達成した。
論文 参考訳(メタデータ) (2025-06-27T18:15:56Z) - CipherBank: Exploring the Boundary of LLM Reasoning Capabilities through Cryptography Challenges [42.16123880046729]
暗号復号処理における大規模言語モデル(LLM)の推論能力を評価するために設計されたベンチマークであるCipherBankを紹介する。
我々は、CipherBank(例えば、GPT-4o、DeepSeek-V3、o1やDeepSeek-R1といった最先端の推論モデル)における最先端のLCMを評価した。
論文 参考訳(メタデータ) (2025-04-27T03:41:17Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Cryptanalysis via Machine Learning Based Information Theoretic Metrics [58.96805474751668]
本稿では,機械学習アルゴリズムの新たな2つの応用法を提案する。
これらのアルゴリズムは、監査設定で容易に適用でき、暗号システムの堅牢性を評価することができる。
本稿では,DES,RSA,AES ECBなど,IND-CPAの安全でない暗号化スキームを高精度に識別する。
論文 参考訳(メタデータ) (2025-01-25T04:53:36Z) - What You See Is Not Always What You Get: An Empirical Study of Code Comprehension by Large Language Models [0.5735035463793009]
ソースコードに隠された文字操作がLLMの動作を誤認し,人間のレビュアーには検出不能なままにしておくという,大きな言語モデル(LLM)の攻撃に対する脆弱性について検討する。
これらの攻撃には、コードリオーダー、見えないコーディング文字、コード削除、コードホモグリフが含まれる。
以上の結果より,LLMは摂動の大きさと性能に異なる負の相関性を示す一方,LLMは認識不能なコードキャラクタ攻撃に対する感受性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-12-11T04:52:41Z) - CodeChameleon: Personalized Encryption Framework for Jailbreaking Large
Language Models [49.60006012946767]
パーソナライズされた暗号化手法に基づく新しいジェイルブレイクフレームワークであるCodeChameleonを提案する。
我々は、7つの大規模言語モデルに関する広範な実験を行い、最先端の平均アタック成功率(ASR)を達成する。
GPT-4-1106上で86.6%のASRを実現する。
論文 参考訳(メタデータ) (2024-02-26T16:35:59Z) - When "Competency" in Reasoning Opens the Door to Vulnerability: Jailbreaking LLMs via Novel Complex Ciphers [33.41396323391102]
我々は、新しい暗号で悪意あるクエリをエンコードするジェイルブレイク技術である、カスタム暗号化(ACE)を用いたアタックを導入する。
また、攻撃の複雑さを増幅するために多層暗号を適用したLACE(Layered Attacks using Custom Encryptions)を導入する。
暗号を復号化できるLLMは、これらのジェイルブレイク攻撃に対してより脆弱である。
論文 参考訳(メタデータ) (2024-02-16T11:37:05Z) - A Survey on Detection of LLMs-Generated Content [97.87912800179531]
LLMの生成する内容を検出する能力が最重要視されている。
既存の検出戦略とベンチマークの詳細な概要を提供する。
また、様々な攻撃から守るための多面的アプローチの必要性を示唆する。
論文 参考訳(メタデータ) (2023-10-24T09:10:26Z) - GPT-4 Is Too Smart To Be Safe: Stealthy Chat with LLMs via Cipher [85.18213923151717]
実験により、いくつかの安全領域において、GPT-4の安全性アライメントをバイパスするために、ある暗号がほぼ100%の時間で成功することが示された。
本稿では,ロールプレイのみを使用し,自然言語によるいくつかの実演を行い,これを誘発する新しいSelfCipherを提案する。
論文 参考訳(メタデータ) (2023-08-12T04:05:57Z) - Towards Codable Watermarking for Injecting Multi-bits Information to LLMs [86.86436777626959]
大規模言語モデル(LLM)は、流布とリアリズムを増大させるテキストを生成する。
既存の透かし方式はエンコーディング非効率であり、多様な情報エンコーディングニーズに柔軟に対応できない。
テキスト透かしを複数ビットでカスタマイズ可能な情報を運ぶことができるCTWL (Codable Text Watermarking for LLMs) を提案する。
論文 参考訳(メタデータ) (2023-07-29T14:11:15Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Memorization for Good: Encryption with Autoregressive Language Models [8.645826579841692]
自己回帰言語モデル(SELM)を用いた最初の対称暗号アルゴリズムを提案する。
自己回帰的LMは任意のデータをコンパクトな実数値ベクトル(すなわち暗号化)にエンコードし、ランダムな部分空間最適化とgreedy復号によってベクトルを元のメッセージ(すなわち復号)に無作為に復号できることを示す。
論文 参考訳(メタデータ) (2023-05-15T05:42:34Z) - TEDL: A Text Encryption Method Based on Deep Learning [10.428079716944463]
本稿では,TEDLと呼ばれる深層学習に基づく新しいテキスト暗号化手法を提案する。
実験および関連する分析の結果、TEDLはセキュリティ、効率、汎用性に優れ、キー再配布頻度の低いことが示されている。
論文 参考訳(メタデータ) (2020-03-09T11:04:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。