論文の概要: A High-Performance Curve25519 and Curve448 Unified Elliptic Curve Cryptography Accelerator
- arxiv url: http://arxiv.org/abs/2504.04731v1
- Date: Mon, 07 Apr 2025 05:04:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:08:31.399150
- Title: A High-Performance Curve25519 and Curve448 Unified Elliptic Curve Cryptography Accelerator
- Title(参考訳): 高性能Curve25519とCurve448統一楕円曲線暗号加速器
- Authors: Aniket Banerjee, Utsav Banerjee,
- Abstract要約: NIST標準モンゴメリー曲線Curve25519とCurve448をそれぞれ128ビットと224ビットのセキュリティレベルでサポートする高性能な統一楕円曲線暗号アクセラレータを提案する。
我々の加速器はカラツバ型大整数乗算の並列処理を実装し、モンゴメリー・ラダーの算術演算を再構成し、基礎となる擬メルセンヌおよびソリナス素体の特別な数学的特性を最適化性能に活用する。
我々のASIC実装は10.38$mu$s / 54.01$mu$sと0.72$mu$J / 3.73のレコード性能とエネルギーを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In modern critical infrastructure such as power grids, it is crucial to ensure security of data communications between network-connected devices while following strict latency criteria. This necessitates the use of cryptographic hardware accelerators. We propose a high-performance unified elliptic curve cryptography accelerator supporting NIST standard Montgomery curves Curve25519 and Curve448 at 128-bit and 224-bit security levels respectively. Our accelerator implements extensive parallel processing of Karatsuba-style large-integer multiplications, restructures arithmetic operations in the Montgomery Ladder and exploits special mathematical properties of the underlying pseudo-Mersenne and Solinas prime fields for optimized performance. Our design ensures efficient resource sharing across both curve computations and also incorporates several standard side-channel countermeasures. Our ASIC implementation achieves record performance and energy of 10.38 $\mu$s / 54.01 $\mu$s and 0.72 $\mu$J / 3.73 $\mu$J respectively for Curve25519 / Curve448, which is significantly better than state-of-the-art.
- Abstract(参考訳): 電力網などの現代の重要なインフラでは、厳格なレイテンシ基準に従いながら、ネットワークに接続されたデバイス間のデータ通信のセキュリティを確保することが不可欠である。
これは、暗号ハードウェアアクセラレーターの使用を必要とする。
NIST標準モンゴメリー曲線Curve25519とCurve448をそれぞれ128ビットと224ビットのセキュリティレベルでサポートする高性能な統一楕円曲線暗号アクセラレータを提案する。
我々の加速器はカラツバ型大整数乗算の並列処理を実装し、モンゴメリー・ラダーの算術演算を再構成し、基礎となる擬メルセンヌおよびソリナス素体の特別な数学的特性を最適化性能に活用する。
本設計では,両曲線計算における資源の効率的な共有が保証され,また,いくつかの標準側チャネル対策も取り入れている。
我々のASIC実装は、10.38 $\mu$s / 54.01 $\mu$s と 0.72 $\mu$J / 3.73 $\mu$J のレコード性能とエネルギを実現しています。
関連論文リスト
- Efficient Message Passing Architecture for GCN Training on HBM-based FPGAs with Orthogonal Topology On-Chip Networks [0.0]
グラフ畳み込みネットワーク(GCN)は、グラフ上の表現学習のための最先端のディープラーニングモデルである。
NUMAベースのメモリアクセス特性を利用したメッセージパッシングアーキテクチャを提案する。
また,提案アクセラレータ内でGCN特有のバックプロパゲーションアルゴリズムを再設計した。
論文 参考訳(メタデータ) (2024-11-06T12:00:51Z) - SWAT: Scalable and Efficient Window Attention-based Transformers Acceleration on FPGAs [3.302913401404089]
スライディングウィンドウベースの静的スパースアテンションは、入力トークンのアテンションスコープを制限することで問題を緩和する。
本稿では,データフローを意識したFPGAベースのアクセラレーション設計であるSWATを提案する。
論文 参考訳(メタデータ) (2024-05-27T10:25:08Z) - Stochastic Spiking Attention: Accelerating Attention with Stochastic
Computing in Spiking Networks [33.51445486269896]
スパイキングニューラルネットワーク(SNN)は、計算要求の削減と電力効率の向上のため、最近Transformerアーキテクチャに統合されている。
我々は,SNNベースのトランスフォーマーのドット積アテンションを効果的に実行するために,計算(SC)を活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-14T11:47:19Z) - Security Analysis of Pairing-based Cryptography [9.548154578787473]
数値フィールドシーブ(NFS)の最近の進歩は、ペアリングベースの暗号のセキュリティを揺るがしている。
既存の標準PF曲線とよく利用される曲線のセキュリティ評価を行う。
128ビットのセキュリティレベルでは、BLS12とBLS24曲線が最適な選択であり、BLS24曲線は160bit、192bit、256bitのセキュリティレベルに対して最適な効率を提供する。
論文 参考訳(メタデータ) (2023-09-09T06:14:10Z) - GloptiNets: Scalable Non-Convex Optimization with Certificates [61.50835040805378]
本稿では,ハイパーキューブやトーラス上のスムーズな関数を扱う証明書を用いた非キューブ最適化手法を提案する。
スペクトルの減衰に固有の対象関数の正則性を活用することにより、正確な証明を取得し、高度で強力なニューラルネットワークを活用することができる。
論文 参考訳(メタデータ) (2023-06-26T09:42:59Z) - Quantized Neural Networks for Low-Precision Accumulation with Guaranteed
Overflow Avoidance [68.8204255655161]
本稿では,推定時のアキュムレータの精度を下げる際に,数値オーバーフローを回避する量子化学習アルゴリズムを提案する。
本手法は,浮動小数点点ベースラインに対するモデル精度を維持しつつ,アキュムレータの精度を低減できることを示す。
論文 参考訳(メタデータ) (2023-01-31T02:46:57Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - Continual Spatio-Temporal Graph Convolutional Networks [87.86552250152872]
時空間グラフ畳み込みニューラルネットワークを連続推論ネットワークとして再構成する。
オンライン推論において、最大109倍の時間複雑性、26倍のハードウェアアクセラレーション、最大割り当てメモリの最大52%の削減を観測した。
論文 参考訳(メタデータ) (2022-03-21T14:23:18Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - SPEC2: SPECtral SParsE CNN Accelerator on FPGAs [31.31419913907224]
我々は、スペクトルCNNを練習し、加速する最初の研究であるSPEC2を提案する。
スパースカーネルへの効率的なランダムアクセスが可能なFPGA上に最適化されたパイプラインアーキテクチャを設計する。
得られたアクセラレータは、VGG16の最先端FPGA実装と比較して最大24倍のスループットを実現している。
論文 参考訳(メタデータ) (2019-10-16T23:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。