論文の概要: Faster Post-Quantum TLS 1.3 Based on ML-KEM: Implementation and Assessment
- arxiv url: http://arxiv.org/abs/2404.13544v2
- Date: Tue, 23 Apr 2024 03:53:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-24 18:27:13.927904
- Title: Faster Post-Quantum TLS 1.3 Based on ML-KEM: Implementation and Assessment
- Title(参考訳): ML-KEMに基づく高速ポスト量子TLS 1.3の実装と評価
- Authors: Jieyu Zheng, Haoliang Zhu, Yifan Dong, Zhenyu Song, Zhenhao Zhang, Yafang Yang, Yunlei Zhao,
- Abstract要約: TLSはネットワーク上のセキュアなデータ伝送に広く利用されている。
量子脅威に対抗するためには、量子後アルゴリズムをTLSに統合することが不可欠である。
TLSプロトコルでは、ハンドシェイク性能が重要であり、後量子TLS(PQ-TLS)では、後量子鍵カプセル化機構(KEM)の性能がハンドシェイク性能に直接影響を及ぼす。
- 参考スコア(独自算出の注目度): 5.483288991845528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: TLS is extensively utilized for secure data transmission over networks. However, with the advent of quantum computers, the security of TLS based on traditional public-key cryptography is under threat. To counter quantum threats, it is imperative to integrate post-quantum algorithms into TLS. Most PQ-TLS research focuses on integration and evaluation, but few studies address the improvement of PQ-TLS performance by optimizing PQC implementation. For the TLS protocol, handshake performance is crucial, and for post-quantum TLS (PQ-TLS) the performance of post-quantum key encapsulation mechanisms (KEMs) directly impacts handshake performance. In this work, we explore the impact of post-quantum KEMs on PQ-TLS performance. We explore how to improve ML-KEM performance using the latest Intel's Advanced Vector Extensions instruction set AVX-512. We detail a spectrum of techniques devised to parallelize polynomial multiplication, modular reduction, and other computationally intensive modules within ML-KEM. Our optimized ML-KEM implementation achieves up to 1.64x speedup compared to the latest AVX2 implementation. Furthermore, we introduce a novel batch key generation method for ML-KEM that can seamlessly integrate into the TLS protocols. The batch method accelerates the key generation procedure by 3.5x to 4.9x. We integrate the optimized AVX-512 implementation of ML-KEM into TLS 1.3, and assess handshake performance under both PQ-only and hybrid modes. The assessment demonstrates that our faster ML-KEM implementation results in a higher number of TLS 1.3 handshakes per second under both modes. Additionally, we revisit two IND-1-CCA KEM constructions discussed in Eurocrypt22 and Asiacrypt23. Besides, we implement them based on ML-KEM and integrate the one of better performance into TLS 1.3 with benchmarks.
- Abstract(参考訳): TLSはネットワーク上のセキュアなデータ伝送に広く利用されている。
しかし、量子コンピュータの出現により、従来の公開鍵暗号に基づくTLSのセキュリティは脅威にさらされている。
量子脅威に対抗するためには、量子後アルゴリズムをTLSに統合することが不可欠である。
PQ-TLSのほとんどの研究は統合と評価に重点を置いているが、PQC実装の最適化によるPQ-TLSの性能向上に対処する研究はほとんどない。
TLSプロトコルでは、ハンドシェイク性能が重要であり、後量子TLS(PQ-TLS)では、後量子鍵カプセル化機構(KEM)の性能がハンドシェイク性能に直接影響を及ぼす。
本研究では,量子後KEMがPQ-TLS性能に与える影響について検討する。
最新のIntelのAdvanced Vector Extensions命令セットAVX-512を用いてML-KEMの性能を改善する方法について検討する。
ML-KEM内の多項式乗算、モジュラーリダクション、その他の計算集約的なモジュールを並列化するために考案された技法のスペクトルを詳述する。
最適化されたML-KEM実装は,最新のAVX2実装と比較して最大1.64倍の高速化を実現している。
さらに,TLSプロトコルにシームレスに統合可能なML-KEMのバッチ鍵生成手法を提案する。
バッチ方式では、鍵生成手順を3.5倍から4.9倍に高速化する。
ML-KEMの最適化されたAVX-512実装をTLS 1.3に統合し、PQモードとハイブリッドモードの両方でハンドシェイク性能を評価する。
その結果,ML-KEM実装の高速化により,両方のモードで1秒あたりのTLS 1.3ハンドシェイク数が増加することがわかった。
さらに,Eurocrypt22とAsiacrypt23で議論されたIND-1-CCA KEMの構成について再検討した。
さらに、ML-KEMに基づいて実装し、優れたパフォーマンスの1つをベンチマークでTLS 1.3に統合する。
関連論文リスト
- Eyes Closed, Safety On: Protecting Multimodal LLMs via Image-to-Text Transformation [98.02846901473697]
MLLMの安全性を意識した新しいトレーニング不要保護手法ECSO(Eyes Closed, Safety On, Eyes Closed, Safety On)を提案する。
ECSOは、安全でない画像をテキストに適応的に変換することで、より安全な応答を生成し、あらかじめ整列されたLCMの本質的な安全性メカニズムを活性化する。
論文 参考訳(メタデータ) (2024-03-14T17:03:04Z) - BiLLM: Pushing the Limit of Post-Training Quantization for LLMs [55.61026644837707]
BiLLMは、事前訓練された大規模言語モデルに適した1ビット後のトレーニング後の量子化スキームである。
LLaMA2-70Bの8.41パープレキシティは、様々なLLMファミリーで1.08ビットの重みしか持たない。
これにより、1つのGPU上で0.5時間以内に70億重量のLLMをバイナライズし、良好な時間効率を示すことができる。
論文 参考訳(メタデータ) (2024-02-06T09:26:34Z) - EE-LLM: Large-Scale Training and Inference of Early-Exit Large Language
Models with 3D Parallelism [75.1814102438065]
大規模学習のためのフレームワークであるEE-LLMについて述べる。
Megatron-LMをベースとして、EE-LLMは様々なアルゴリズムの革新と早期終了に適したパフォーマンス最適化を実装している。
解析的および実証的研究により、EE-LLMは無視可能な計算オーバーヘッドで優れたトレーニング効率を達成することが示された。
論文 参考訳(メタデータ) (2023-12-08T09:31:50Z) - Are LSTMs Good Few-Shot Learners? [4.316506818580031]
2001年、Hochreiterらは、異なるタスクにまたがってバックプロパゲーションで訓練されたLSTMがメタラーニングを行うことができることを示した。
このアプローチを再検討し、現代の数ショットの学習ベンチマークでテストします。
LSTMは、単純な数ショットの正弦波回帰ベンチマークでMAMLよりも優れているが、予想されることに、より複雑な数ショット画像分類ベンチマークでは不足している。
論文 参考訳(メタデータ) (2023-10-22T00:16:30Z) - Enhancing Energy-efficiency by Solving the Throughput Bottleneck of LSTM
Cells for Embedded FPGAs [22.293462679874008]
本研究は,エンドデバイス上でのエネルギー効率を考慮した新しいLSTMセル最適化を提案する。
少なくとも5.4$times$高速スループットと1.37$times$既存の手法よりもエネルギー効率が高い。
論文 参考訳(メタデータ) (2023-10-04T08:42:10Z) - FIPS Compliant Quantum Secure Communication using Quantum Permutation
Pad [0.602276990341246]
本稿では,量子セーフデータを用いたTLS 1.3プロトコルを実現するネストモードを提案する。
ネストしたTLS 1.3のハンドシェイキングフェーズとPQCと対称暗号化フェーズのパフォーマンスへの影響について検討した。
論文 参考訳(メタデータ) (2022-12-30T21:56:35Z) - A Multi-Stage Multi-Codebook VQ-VAE Approach to High-Performance Neural
TTS [52.51848317549301]
高速なTTS合成のためのマルチステージマルチコードブック(MSMC)手法を提案する。
ベクトル量子化可変オートエンコーダ(VQ-VAE)に基づく特徴解析器を用いて,音声訓練データのメルスペクトルを符号化する。
合成において、ニューラルネットワークは予測されたSMCRを最終的な音声波形に変換する。
論文 参考訳(メタデータ) (2022-09-22T09:43:17Z) - Efficient experimental characterization of quantum processes via
compressed sensing on an NMR quantum processor [4.291616110077346]
我々は、NMR量子プロセッサ上で真の量子プロセストモグラフィ(QPT)を実験的に実行するために、圧縮センシング(CS)アルゴリズムと、大幅に削減されたデータセットを用いる。
各種2量子および3量子ビット量子ゲートに対応するプロセス行列 $chi$ の推定値を得る。
また,3キュービットシステムに埋め込まれた2キュービットサブシステムの動的特性の低減を実験的に評価した。
論文 参考訳(メタデータ) (2021-09-27T17:05:13Z) - Improving Deep Learning for HAR with shallow LSTMs [70.94062293989832]
本稿では,DeepConvLSTMを2層LSTMではなく1層LSTMに変更することを提案する。
この結果は、シーケンシャルデータを扱う場合、少なくとも2層LSTMが必要であるという信念とは対照的である。
論文 参考訳(メタデータ) (2021-08-02T08:14:59Z) - CPM-2: Large-scale Cost-effective Pre-trained Language Models [71.59893315671997]
本稿では, PLM を用いた事前学習, 微調整, 推論の効率性問題に対処するための費用対効果技術について述べる。
我々は,既存のPLMをスクラッチからトレーニングする代わりに活用することで,事前学習プロセスの促進を目的とした知識継承を導入する。
計算資源が限られている大規模PLMに対して,新しい推論ツールキット,すなわちInfMoEを実装した。
論文 参考訳(メタデータ) (2021-06-20T15:43:54Z) - Transformer Language Models with LSTM-based Cross-utterance Information
Representation [3.976291254896486]
本論文では,長期記憶(LSTM)LMに隠れた状態を用いるR-TLMを提案する。
クロス発話情報をエンコードするために、R-TLMは、トランスフォーマーブロックの一部にセグメントワイズ再発と共にLSTMモジュールを組み込む。
提案システムは,AMI会議コーパス,Eval2000,RT03電話会話評価セットで評価された。
論文 参考訳(メタデータ) (2021-02-12T12:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。