論文の概要: SALSA PICANTE: a machine learning attack on LWE with binary secrets
- arxiv url: http://arxiv.org/abs/2303.04178v1
- Date: Tue, 7 Mar 2023 19:01:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 16:24:27.566079
- Title: SALSA PICANTE: a machine learning attack on LWE with binary secrets
- Title(参考訳): SALSA PICANTE: バイナリシークレットを持つLWEに対する機械学習攻撃
- Authors: Cathy Li, Jana Sot\'akov\'a, Emily Wenger, Mohamed Malhou, Evrard
Garcelon, Francois Charton, Kristin Lauter
- Abstract要約: LWE問題(Learning With Errors)は、量子後暗号における大きな問題の1つである。
サンプルの線形数からトレーニングデータを生成するための前処理手順を導入する。
また、トレーニングされたモデルから直接秘密を読み取ることのできる、新しいクロスアテンション回復機構も導入する。
- 参考スコア(独自算出の注目度): 6.419511403469183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Learning With Errors (LWE) problem is one of the major hard problems in
post-quantum cryptography. For example, 1) the only Key Exchange Mechanism KEM
standardized by NIST [14] is based on LWE; and 2) current publicly available
Homomorphic Encryption (HE) libraries are based on LWE. NIST KEM schemes use
random secrets, but homomorphic encryption schemes use binary or ternary
secrets, for efficiency reasons. In particular, sparse binary secrets have been
proposed, but not standardized [2], for HE.
Prior work SALSA [49] demonstrated a new machine learning attack on sparse
binary secrets for the LWE problem in small dimensions (up to n = 128) and low
Hamming weights (up to h = 4). However, this attack assumed access to millions
of LWE samples, and was not scaled to higher Hamming weights or dimensions.
Our attack, PICANTE, reduces the number of samples required to just m = 4n
samples. Moreover, it can recover secrets with much larger dimensions (up to
350) and Hamming weights (roughly n/10, or h = 33 for n = 300). To achieve
this, we introduce a preprocessing step which allows us to generate the
training data from a linear number of samples and changes the distribution of
the training data to improve transformer training. We also improve the
distinguisher/secret recovery methods of SALSA and introduce a novel
cross-attention recovery mechanism which allows us to read-off the secret
directly from the trained models.
- Abstract(参考訳): 誤り学習問題(lwe)は、量子化後の暗号において大きな問題の1つである。
例えば
1) NIST[14]で標準化された唯一の鍵交換機構KEMは、LWEに基づいており、
2) 現在公開されている同型暗号化(HE)ライブラリはLWEに基づいている。
NIST KEMスキームはランダムシークレットを使用するが、同型暗号化スキームは効率上の理由からバイナリまたは3次シークレットを使用する。
特に、sparseバイナリシークレットが提案されているが、heには標準化されていない。
SALSA [49] は,小次元(n = 128まで)と低ハミング重量(h = 4まで)において,LWE問題のスパースバイナリシークレットに対する新たな機械学習攻撃を実証した。
しかし、この攻撃は数百万のLWEサンプルへのアクセスを前提としており、ハミング重量や寸法の増大には至らなかった。
私たちの攻撃であるpicanteは、m = 4nサンプルだけに必要なサンプル数を減らす。
さらに、より大きな次元(350まで)とハミング重み(おおむねn/10、またはn = 300のh = 33)で秘密を復元することができる。
そこで本研究では,サンプルの線形数からトレーニングデータを生成し,トレーニングデータの分布を変化させ,トランスフォーマートレーニングを改善するための前処理手順を提案する。
また,SALSAの識別・秘密回復手法の改良や,トレーニングされたモデルから直接秘密を読み取ることのできる,新たなクロスアテンション回復機構を導入する。
関連論文リスト
- HarmAug: Effective Data Augmentation for Knowledge Distillation of Safety Guard Models [92.85175340702125]
本研究では,大規模な教師の安全ガードモデルを,バイナリ有害度ラベル付き命令応答ペアのラベル付きデータセットを用いて,より小さなモデルに蒸留する。
本稿では,LLMをジェイルブレイクして有害な命令を発生させる単純なデータ拡張手法であるHarmAugを提案する。
私たちのHarmAugは、70億以上のパラメータを持つ大規模モデルに匹敵するF1スコアを達成し、計算コストの25%未満で運用しながら、AUPRCでそれを上回るパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-10-02T13:12:13Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - Benchmarking Attacks on Learning with Errors [9.031051362571436]
誤りを伴う学習(LWE)に基づく格子暗号スキームは、後量子暗号システムとして使われるためにNISTによって標準化されている。
標準化されたパラメータのLWEシークレットリカバリのための最初のベンチマークを、小さくて低ウェイトな(スパースな)シークレットに対して提供します。
SALSAとCool & Cruelの攻撃を大きな形で拡張し、MitM攻撃の実装とスケールアップを初めて行います。
論文 参考訳(メタデータ) (2024-08-01T19:21:20Z) - MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series [86.31735321970481]
私たちはMAP-Neoをオープンソースにしました。これは、4.5Tの高品質トークン上で、スクラッチからトレーニングされた7Bパラメータを持つバイリンガル言語モデルです。
MAP-Neo は,既存の最先端 LLM と比較して性能が劣る初の完全オープンソースバイリンガル LLM である。
論文 参考訳(メタデータ) (2024-05-29T17:57:16Z) - The cool and the cruel: separating hard parts of LWE secrets [11.000531626756853]
スパースバイナリLWEシークレットに対する既知の攻撃には、スパースデュアルアタックとミドルアタックにおけるハイブリッドスパースデュアルミートが含まれる。
本稿では,メモリ要求の少ない新しい統計的攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-15T14:16:21Z) - BiLLM: Pushing the Limit of Post-Training Quantization for LLMs [53.31402059062365]
BiLLMは、事前訓練された大規模言語モデルに適した1ビット後のトレーニング後の量子化スキームである。
LLaMA2-70Bの8.41パープレキシティは、様々なLLMファミリーで1.08ビットの重みしか持たない。
論文 参考訳(メタデータ) (2024-02-06T09:26:34Z) - Salsa Fresca: Angular Embeddings and Pre-Training for ML Attacks on
Learning With Errors [10.800552110718714]
LWE(Learning with Errors)は、鍵交換とデジタル署名のための量子後暗号システムの基礎となる難解な数学問題である。
以前の作業では、小さな秘密を持つLWE問題に対する機械学習(ML)ベースの新たな攻撃を提案したが、これらの攻撃には、秘密をトレーニングし、回復するのに数日を要する数百万のLWEサンプルが必要である。
我々は、これらの攻撃を改善するために、3つの重要な方法、より良い前処理、角埋め込み、モデル事前訓練を提案する。
論文 参考訳(メタデータ) (2024-02-02T00:48:27Z) - Bypassing the Safety Training of Open-Source LLMs with Priming Attacks [3.8023902618391783]
本稿では,SOTA オープンソース LLM の脆弱性を,単純かつ最適化不要な攻撃下で検討する。
提案攻撃は,Llama Guardが測定した有害行動に対する攻撃成功率を,ベースラインと比較して最大3.3倍向上させる。
論文 参考訳(メタデータ) (2023-12-19T16:47:12Z) - Dynamic Sparse No Training: Training-Free Fine-tuning for Sparse LLMs [67.38165028487242]
そこで我々は,DSnoT(Dynamic Sparse No Training, 動的スパース・ノー・トレーニング)を導入した。
動的スパーストレーニングにインスパイアされたDSnoTは、密度とスパースLLM間の再構成誤差を最小限に抑える。
本稿は, LLMのスパースを, 効率的なトレーニング自由な方法で微調整し, 新たな会場をオープンして, LLMの空間性に大きな可能性を拡大する方法について, 新たな知見を提供する。
論文 参考訳(メタデータ) (2023-10-13T07:38:52Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - SALSA: Attacking Lattice Cryptography with Transformers [6.229340901386596]
我々は、LWEベースの暗号スキームに対する機械学習攻撃であるSALSAを提案する。
SALSAは、疎いバイナリシークレットを持つ小規模から中規模のLWEインスタンスのシークレットを完全に復元することができ、現実世界のLWEベースの暗号システムを攻撃するためにスケールすることができる。
論文 参考訳(メタデータ) (2022-07-11T11:35:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。