論文の概要: Salsa Fresca: Angular Embeddings and Pre-Training for ML Attacks on
Learning With Errors
- arxiv url: http://arxiv.org/abs/2402.01082v1
- Date: Fri, 2 Feb 2024 00:48:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 17:15:30.242947
- Title: Salsa Fresca: Angular Embeddings and Pre-Training for ML Attacks on
Learning With Errors
- Title(参考訳): Salsa Fresca: エラーによる学習に対するML攻撃のAngular埋め込みと事前トレーニング
- Authors: Samuel Stevens, Emily Wenger, Cathy Li, Niklas Nolte, Eshika Saxena,
Fran\c{c}ois Charton, Kristin Lauter
- Abstract要約: LWE(Learning with Errors)は、鍵交換とデジタル署名のための量子後暗号システムの基礎となる難解な数学問題である。
以前の作業では、小さな秘密を持つLWE問題に対する機械学習(ML)ベースの新たな攻撃を提案したが、これらの攻撃には、秘密をトレーニングし、回復するのに数日を要する数百万のLWEサンプルが必要である。
我々は、これらの攻撃を改善するために、3つの重要な方法、より良い前処理、角埋め込み、モデル事前訓練を提案する。
- 参考スコア(独自算出の注目度): 10.800552110718714
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning with Errors (LWE) is a hard math problem underlying recently
standardized post-quantum cryptography (PQC) systems for key exchange and
digital signatures. Prior work proposed new machine learning (ML)-based attacks
on LWE problems with small, sparse secrets, but these attacks require millions
of LWE samples to train on and take days to recover secrets. We propose three
key methods -- better preprocessing, angular embeddings and model pre-training
-- to improve these attacks, speeding up preprocessing by $25\times$ and
improving model sample efficiency by $10\times$. We demonstrate for the first
time that pre-training improves and reduces the cost of ML attacks on LWE. Our
architecture improvements enable scaling to larger-dimension LWE problems: this
work is the first instance of ML attacks recovering sparse binary secrets in
dimension $n=1024$, the smallest dimension used in practice for homomorphic
encryption applications of LWE where sparse binary secrets are proposed.
- Abstract(参考訳): Learning with Errors (LWE)は、鍵交換とデジタル署名のための最近標準化されたポスト量子暗号(PQC)システムの基礎となる難解な数学問題である。
以前の研究では、小さな秘密を持つLWE問題に対する機械学習(ML)ベースの新たな攻撃を提案したが、これらの攻撃には秘密をトレーニングし、回復するのに数日を要する数百万のLWEサンプルが必要である。
これらの攻撃を改善し、25\times$で前処理を高速化し、モデルのサンプル効率を10\times$で改善するために、3つの重要な方法を提案しました。
プレトレーニングがLWEに対するML攻撃のコストを向上し、削減できることを初めて実証する。
この研究は、疎二項秘密が提案されるLWEの同型暗号化アプリケーションで実際に使用される最小の次元である次元$n=1024$の疎二項秘密を復元するMLアタックの最初の例である。
関連論文リスト
- Benchmarking Attacks on Learning with Errors [9.031051362571436]
誤りを伴う学習(LWE)に基づく格子暗号スキームは、後量子暗号システムとして使われるためにNISTによって標準化されている。
標準化されたパラメータのLWEシークレットリカバリのための最初のベンチマークを、小さくて低ウェイトな(スパースな)シークレットに対して提供します。
SALSAとCool & Cruelの攻撃を大きな形で拡張し、MitM攻撃の実装とスケールアップを初めて行います。
論文 参考訳(メタデータ) (2024-08-01T19:21:20Z) - Enabling High-Sparsity Foundational Llama Models with Efficient Pretraining and Deployment [56.44025052765861]
大規模言語モデル(LLM)は自然言語処理(NLP)に革命をもたらしたが、そのサイズは計算のボトルネックを生み出している。
そこで本研究では,高性能LLMの高精度かつ疎結合な基本バージョンを作成するための新しいアプローチを提案する。
スパース量子化LLaMAの最大8.6倍のCPU上での総高速化を示す。
論文 参考訳(メタデータ) (2024-05-06T16:03:32Z) - FFN-SkipLLM: A Hidden Gem for Autoregressive Decoding with Adaptive Feed Forward Skipping [49.66872823080736]
自己回帰型大規模言語モデル(LLaMa, GPT)は、言語理解と生成において顕著な成功を収めている。
発生時に発生する過負荷を軽減するため、いくつかの早期退避および層下降戦略が提案されている。
本稿では,入力適応型フィードフォワードスキップ戦略であるFFN-SkipLLMを提案する。
論文 参考訳(メタデータ) (2024-04-05T02:35:43Z) - The cool and the cruel: separating hard parts of LWE secrets [11.000531626756853]
スパースバイナリLWEシークレットに対する既知の攻撃には、スパースデュアルアタックとミドルアタックにおけるハイブリッドスパースデュアルミートが含まれる。
本稿では,メモリ要求の少ない新しい統計的攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-15T14:16:21Z) - Alpaca against Vicuna: Using LLMs to Uncover Memorization of LLMs [61.04246774006429]
本稿では,攻撃者によるLSMエージェントを用いたブラックボックスプロンプト最適化手法を提案する。
ベースラインプレフィックス・サフィックス測定と比較すると,命令ベースのプロンプトは,トレーニングデータと23.7%のオーバラップで出力を生成する。
以上の結果から,命令調整モデルでは,ベースモデルと同等に事前学習データを公開することが可能であり,他のLSMが提案する命令を用いることで,新たな自動攻撃の道を開くことが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T19:32:01Z) - Bypassing the Safety Training of Open-Source LLMs with Priming Attacks [3.8023902618391783]
本稿では,SOTA オープンソース LLM の脆弱性を,単純かつ最適化不要な攻撃下で検討する。
提案攻撃は,Llama Guardが測定した有害行動に対する攻撃成功率を,ベースラインと比較して最大3.3倍向上させる。
論文 参考訳(メタデータ) (2023-12-19T16:47:12Z) - Dynamic Sparse No Training: Training-Free Fine-tuning for Sparse LLMs [67.38165028487242]
そこで我々は,DSnoT(Dynamic Sparse No Training, 動的スパース・ノー・トレーニング)を導入した。
動的スパーストレーニングにインスパイアされたDSnoTは、密度とスパースLLM間の再構成誤差を最小限に抑える。
本稿は, LLMのスパースを, 効率的なトレーニング自由な方法で微調整し, 新たな会場をオープンして, LLMの空間性に大きな可能性を拡大する方法について, 新たな知見を提供する。
論文 参考訳(メタデータ) (2023-10-13T07:38:52Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - A Simple and Effective Pruning Approach for Large Language Models [58.716255689941896]
大規模言語モデル(LLM)は、ネットワークプルーニング手法の自然な候補である。
しかし,既存の手法では,2次情報に依存した再訓練や重み復元の問題の解決が求められている。
我々は,事前学習したLLMの空間性を高めるために,Wanda (Pruning by Weights and activations) と呼ばれる新しい,単純で効果的な刈り取り法を導入する。
論文 参考訳(メタデータ) (2023-06-20T17:18:20Z) - SALSA PICANTE: a machine learning attack on LWE with binary secrets [8.219373043653507]
スパースバイナリシークレットを用いたLWEに対する強化機械学習攻撃であるPICANTEを提案する。
PICANTEは、より大きな次元(最大$n=350$)で秘密を回収し、より大きなハミング重みを持つ。
PICANTEはNISTのLWE標準を脅かしていないが、SALSAよりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-03-07T19:01:01Z) - SALSA: Attacking Lattice Cryptography with Transformers [6.229340901386596]
我々は、LWEベースの暗号スキームに対する機械学習攻撃であるSALSAを提案する。
SALSAは、疎いバイナリシークレットを持つ小規模から中規模のLWEインスタンスのシークレットを完全に復元することができ、現実世界のLWEベースの暗号システムを攻撃するためにスケールすることができる。
論文 参考訳(メタデータ) (2022-07-11T11:35:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。