論文の概要: Message Recovery Attack in NTRU through VFK Lattices
- arxiv url: http://arxiv.org/abs/2311.17022v1
- Date: Tue, 28 Nov 2023 18:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 13:44:50.315866
- Title: Message Recovery Attack in NTRU through VFK Lattices
- Title(参考訳): VFK格子によるNTRUのメッセージ回復攻撃
- Authors: Eirini Poimenidou, Marios Adamoudis, Konstantinos A. Draziotis, Kostas Tsichlas,
- Abstract要約: 我々はNTRU暗号システムのすべての変種に対してメッセージリカバリ攻撃を実装した。
攻撃の有効性は、未知の量の近似を可能にする特定の神託に依存する。
攻撃に対するNTRU暗号システムの耐性を示す手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In the present paper, we implement a message recovery attack to all variants of the NTRU cryptosystem. Our approach involves a reduction from the NTRU-lattice to a Voronoi First Kind lattice, enabling the application of a polynomial CVP exact algorithm crucial for executing the Message Recovery. The efficacy of our attack relies on a specific oracle that permits us to approximate an unknown quantity. Furthermore, we outline the mathematical conditions under which the attack is successful. Finally, we delve into a well-established polynomial algorithm for CVP on VFK lattices and its implementation, shedding light on its efficacy in our attack. Subsequently, we present comprehensive experimental results on the NTRU-HPS and the NTRU-Prime variants of the NIST submissions and propose a method that could indicate the resistance of the NTRU cryptosystem to our attack.
- Abstract(参考訳): 本稿では,NTRU暗号システムのすべての変種に対して,メッセージ回復攻撃を実装した。
提案手法では,NTRU格子からVoronoi First Kind格子への変換を行う。
攻撃の有効性は、未知の量の近似を可能にする特定の神託に依存する。
さらに,攻撃が成功した数学的条件についても概説する。
最後に、VFK格子上のCVPの確立された多項式アルゴリズムとその実装を探索し、攻撃の有効性について光を当てる。
その後、NTRU-HPSおよびNTRU-PrimeのNISTサブミッションに対する総合的な実験結果を示し、攻撃に対するNTRU暗号システムの耐性を示す方法を提案する。
関連論文リスト
- A Classification-Guided Approach for Adversarial Attacks against Neural
Machine Translation [66.58025084857556]
我々は,分類器によって誘導されるNMTシステムに対する新たな敵攻撃フレームワークであるACTを紹介する。
本攻撃では,翻訳が本来の翻訳と異なるクラスに属する意味保存的敵の例を作成することを目的としている。
攻撃に対するNMTモデルの堅牢性を評価するため,既存のブラックボックス単語置換攻撃の強化を提案する。
論文 参考訳(メタデータ) (2023-08-29T12:12:53Z) - Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unrestricted Black-box Adversarial Attack Using GAN with Limited Queries [1.7205106391379026]
GANを用いた非制限逆例を生成するための新しい手法を提案する。
提案手法は遅延空間における決定に基づく攻撃の利点を効果的に活用する。
提案手法は,ブラックボックス設定における限定クエリを用いた分類モデルのロバスト性を評価するのに有効であることを示す。
論文 参考訳(メタデータ) (2022-08-24T15:28:46Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - RSD-GAN: Regularized Sobolev Defense GAN Against Speech-to-Text
Adversarial Attacks [9.868221447090853]
本稿では,音声からテキストへの書き起こしシステムの性能に挑戦するために開発された,新たな合成ベース防御アルゴリズムを提案する。
本アルゴリズムは,ソボレフに基づくGANを実装し,生成モデル全体の機能を効果的に制御する新しい正規化器を提案する。
論文 参考訳(メタデータ) (2022-07-14T12:22:19Z) - On recovering block cipher secret keys in the cold boot attack setting [0.0]
本稿では,AES,PreSENT,GIFT,LowMCなどのブロック暗号に対して,アルゴリズムの量子成分の実装方法を示す。
NISTポスト量子標準化コンペティションにおける代替候補であるポスト量子署名アルゴリズムであるPicnicに対するハイブリッド攻撃の実現可能性を示す。
論文 参考訳(メタデータ) (2022-05-09T12:16:02Z) - Targeted Attack against Deep Neural Networks via Flipping Limited Weight
Bits [55.740716446995805]
我々は,悪質な目的で展開段階におけるモデルパラメータを修飾する新しい攻撃パラダイムについて検討する。
私たちのゴールは、特定のサンプルをサンプル修正なしでターゲットクラスに誤分類することです。
整数プログラミングにおける最新の手法を利用することで、このBIP問題を連続最適化問題として等価に再構成する。
論文 参考訳(メタデータ) (2021-02-21T03:13:27Z) - Defense of Word-level Adversarial Attacks via Random Substitution
Encoding [0.5964792400314836]
コンピュータビジョンタスクにおけるディープニューラルネットワークに対する敵対的な攻撃は、モデルを保護するための多くの新しい技術を生み出しました。
近年、自然言語処理(NLP)タスクの深層モデルに対する単語レベルの敵対攻撃は、例えば、感情分類ニューラルネットワークを騙して誤った判断を下すなど、強力な力を示している。
本稿ではランダム置換(Random Substitution RSE)という,ニューラルネットワークのトレーニングプロセスにランダム置換を導入する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-01T15:28:43Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。