論文の概要: CIPHER: Cryptographic Insecurity Profiling via Hybrid Evaluation of Responses
- arxiv url: http://arxiv.org/abs/2602.01438v1
- Date: Sun, 01 Feb 2026 21:06:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.783927
- Title: CIPHER: Cryptographic Insecurity Profiling via Hybrid Evaluation of Responses
- Title(参考訳): CIPHER: 応答のハイブリッド評価による暗号化アンセキュリティプロファイリング
- Authors: Max Manolov, Tony Gao, Siddharth Shukla, Cheng-Ting Chou, Ryan Lagasse,
- Abstract要約: 大規模言語モデル(LLM)は、開発者がコードを使うのを助けるために使われることが多いが、暗号機能の実装には、しばしば悪用可能な欠陥が含まれている。
制御されたセキュリティガイダンス条件下で,Pythonコードの暗号的脆弱性発生率を測定するベンチマークであるCIPHERを紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used to assist developers with code, yet their implementations of cryptographic functionality often contain exploitable flaws. Minor design choices (e.g., static initialization vectors or missing authentication) can silently invalidate security guarantees. We introduce CIPHER(\textbf{C}ryptographic \textbf{I}nsecurity \textbf{P}rofiling via \textbf{H}ybrid \textbf{E}valuation of \textbf{R}esponses), a benchmark for measuring cryptographic vulnerability incidence in LLM-generated Python code under controlled security-guidance conditions. CIPHER uses insecure/neutral/secure prompt variants per task, a cryptography-specific vulnerability taxonomy, and line-level attribution via an automated scoring pipeline. Across a diverse set of widely used LLMs, we find that explicit ``secure'' prompting reduces some targeted issues but does not reliably eliminate cryptographic vulnerabilities overall. The benchmark and reproducible scoring pipeline will be publicly released upon publication.
- Abstract(参考訳): 大規模言語モデル(LLM)は、開発者がコードを使うのを助けるために使われることが多いが、暗号機能の実装には、しばしば悪用可能な欠陥が含まれている。
マイナーな設計選択(静的初期化ベクトルや認証の欠如など)は、セキュリティ保証を静かに無効にすることができる。
CIPHER(\textbf{C}ryptographic \textbf{I}nsecurity \textbf{P}rofiling via \textbf{H}ybrid \textbf{E}valuation of \textbf{R}esponses)は,LLM生成Pythonコードにおけるセキュリティ保証条件下での暗号的脆弱性の検出ベンチマークである。
CIPHERは、タスク毎の安全/中立/セキュアなプロンプト変種、暗号化固有の脆弱性分類、自動スコアリングパイプラインによるラインレベルの属性を使用する。
広く使われているLLMの多種多様なセットの中で、明示的な '`secure'' がターゲットとする問題を減らすが、全体的な暗号化上の脆弱性を確実に排除しないことがわかった。
ベンチマークと再現可能なスコアリングパイプラインは公開時に公開される。
関連論文リスト
- RealSec-bench: A Benchmark for Evaluating Secure Code Generation in Real-World Repositories [58.32028251925354]
LLM(Large Language Models)は、コード生成において顕著な能力を示しているが、セキュアなコードを生成する能力は依然として重要で、未調査の領域である。
我々はRealSec-benchを紹介します。RealSec-benchは、現実世界の高リスクなJavaリポジトリから慎重に構築されたセキュアなコード生成のための新しいベンチマークです。
論文 参考訳(メタデータ) (2026-01-30T08:29:01Z) - AgenticSCR: An Autonomous Agentic Secure Code Review for Immature Vulnerabilities Detection [8.909533914802669]
我々は、エージェントAIであるAgenticSCRを導入し、コミット前の段階で未熟な脆弱性を検出する。
我々は,未熟な脆弱性の局所化,検出,説明を行うAgenicSCRの精度を実証的に評価した。
論文 参考訳(メタデータ) (2026-01-27T03:10:12Z) - "MCP Does Not Stand for Misuse Cryptography Protocol": Uncovering Cryptographic Misuse in Model Context Protocol at Scale [27.85822797774986]
Model Context Protocol (MCP) がツール統合のインターフェースとして登場している。
MCPは、開発者が暗号化自体を実装せざるを得ない、真正性や機密性の保証は提供しない。
MCP実装における暗号誤用を検出するための最初のドメイン固有フレームワークであるYSCOPEを提示する。
我々の研究は、MPPにおける暗号誤用に関する最初のエコシステム全体的見解を確立し、この急速に成長するプロトコルのセキュリティ基盤を強化するためのツールと洞察を提供する。
論文 参考訳(メタデータ) (2025-12-03T13:25:59Z) - Can AI Keep a Secret? Contextual Integrity Verification: A Provable Security Architecture for LLMs [0.0]
我々は、暗号的に署名されたラベルを全てのトークンにアタッチする、既定のセキュリティアーキテクチャであるContextual Integrity Verification (CIV)を提示する。
CIVは、凍結したモデルに対して、前兆かつトーケン毎の非干渉保証を提供する。
Llama-3-8BとMistral-7Bのドロップイン保護を実証した。
論文 参考訳(メタデータ) (2025-08-12T18:47:30Z) - Cryptanalysis of LC-MUME: A Lightweight Certificateless Multi-User Matchmaking Encryption for Mobile Devices [0.0]
送信者の完全秘密鍵を所持することなく,Type-I 敵が有効なテキスト暗号を偽造できることを示す。
本稿では,モバイルコンピューティング環境におけるマッチング暗号方式のセキュリティを強化するための戦略を提案する。
論文 参考訳(メタデータ) (2025-07-30T13:36:52Z) - Towards Copyright Protection for Knowledge Bases of Retrieval-augmented Language Models via Reasoning [58.57194301645823]
大規模言語モデル(LLM)は、現実のパーソナライズされたアプリケーションにますます統合されている。
RAGで使用される知識基盤の貴重かつしばしばプロプライエタリな性質は、敵による不正使用のリスクをもたらす。
これらの知識基盤を保護するための透かし技術として一般化できる既存の方法は、一般的に毒やバックドア攻撃を含む。
我々は、無害な」知識基盤の著作権保護の名称を提案する。
論文 参考訳(メタデータ) (2025-02-10T09:15:56Z) - Defending Large Language Models against Jailbreak Attacks via Semantic
Smoothing [107.97160023681184]
適応型大規模言語モデル(LLM)は、ジェイルブレイク攻撃に対して脆弱である。
提案するSEMANTICSMOOTHは,与えられた入力プロンプトのセマンティック変換されたコピーの予測を集約するスムージングベースのディフェンスである。
論文 参考訳(メタデータ) (2024-02-25T20:36:03Z) - Coding-Based Hybrid Post-Quantum Cryptosystem for Non-Uniform Information [53.85237314348328]
我々は、新しいハイブリッドユニバーサルネットワーク符号化暗号(NU-HUNCC)を導入する。
NU-HUNCCは,リンクのサブセットにアクセス可能な盗聴者に対して,個別に情報理論的に保護されていることを示す。
論文 参考訳(メタデータ) (2024-02-13T12:12:39Z) - Certifying LLM Safety against Adversarial Prompting [70.96868018621167]
大規模言語モデル(LLM)は、入力プロンプトに悪意のあるトークンを追加する敵攻撃に対して脆弱である。
我々は,認証された安全保証とともに,敵のプロンプトを防御する最初の枠組みである消去・チェックを導入する。
論文 参考訳(メタデータ) (2023-09-06T04:37:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。