論文の概要: Efficient Modular Multiplier over GF (2^m) for ECPM
- arxiv url: http://arxiv.org/abs/2506.09464v1
- Date: Wed, 11 Jun 2025 07:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.688726
- Title: Efficient Modular Multiplier over GF (2^m) for ECPM
- Title(参考訳): ECPMのためのGF(2^m)上の効率的なモジュラ乗算器
- Authors: Ruby Kumari, Gaurav Purohit, Abhijit Karmakar,
- Abstract要約: 楕円曲線暗号(ECC)が主要な公開鍵プロトコルとして登場している。
本研究では,バイナリフィールドGF(2m)上のモジュラ乗算のためのハイブリッド乗算手法のハードウェア実装を提案する。
従来の乗算(CM)とカラツバ乗算(KM)の組み合わせを最適化して楕円曲線点乗算(ECPM)を強化する設計である。
本手法は,ECC暗号システムの高速化,ハードウェア効率,資源利用を著しく向上させる。
- 参考スコア(独自算出の注目度): 0.10241134756773226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Elliptic curve cryptography (ECC) has emerged as the dominant public-key protocol, with NIST standardizing parameters for binary field GF(2^m) ECC systems. This work presents a hardware implementation of a Hybrid Multiplication technique for modular multiplication over binary field GF(2m), targeting NIST B-163, 233, 283, and 571 parameters. The design optimizes the combination of conventional multiplication (CM) and Karatsuba multiplication (KM) to enhance elliptic curve point multiplication (ECPM). The key innovation uses CM for smaller operands (up to 41 bits for m=163) and KM for larger ones, reducing computational complexity and enhancing efficiency. The design is evaluated in three areas: Resource Utilization For m=163, the hybrid design uses 6,812 LUTs, a 39.82% reduction compared to conventional methods. For m=233, LUT usage reduces by 45.53% and 70.70% compared to overlap-free and bit-parallel implementations. Delay Performance For m=163, achieves 13.31ns delay, improving by 37.60% over bit-parallel implementations. For m=233, maintains 13.39ns delay. Area-Delay Product For m=163, achieves ADP of 90,860, outperforming bit-parallel (75,337) and digit-serial (43,179) implementations. For m=233, demonstrates 16.86% improvement over overlap-free and 96.10% over bit-parallel designs. Results show the hybrid technique significantly improves speed, hardware efficiency, and resource utilization for ECC cryptographic systems.
- Abstract(参考訳): 楕円曲線暗号(ECC)は、バイナリフィールドGF(2^m) ECCシステムのパラメータをNISTで標準化し、主要な公開鍵プロトコルとして登場した。
本研究は, NIST B-163, 233, 283, 571 パラメータを対象とした, 2進体 GF(2m) 上のモジュラ乗算のためのハイブリッド乗算手法のハードウェア実装を提案する。
従来の乗算(CM)とカラツバ乗算(KM)の組み合わせを最適化し、楕円曲線点乗算(ECPM)を強化する。
鍵となる革新は、より小さなオペランド(m=163)で最大41ビット)にCMを使い、大きいものはKMを使い、計算の複雑さを減らし、効率を向上する。
m=163の場合、ハイブリッド設計では6,812 LUTを使用し、従来の手法に比べて39.82%削減されている。
m=233の場合、LUTはオーバーラップフリーやビット並列の実装に比べて45.53%、70.70%減少する。
遅延性能 m=163では13.31nsの遅延を実現し、ビット並列実装よりも37.60%向上した。
m=233の場合、13.39ns遅延を維持する。
エリア遅延製品 m=163の場合、ADPは90,860、ビットパラレルは75,337、桁シリアルは43,179である。
m=233の場合、オーバーラップフリーよりも16.86%、ビット並列設計より96.10%改善している。
本手法は,ECC暗号システムの高速化,ハードウェア効率,資源利用を著しく向上させる。
関連論文リスト
- Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - Speedy MASt3R [68.47052557089631]
MASt3Rは、DUSt3Rを活用して高速な相互マッチング方式を導入することで、画像マッチングを3Dタスクとして再定義する。
高速MASt3Rは、精度を犠牲にすることなく、推論時間(画像ペアあたり198msから91ms)を54%削減する。
この進歩により、リアルタイムな3D理解が可能になり、複合現実ナビゲーションや大規模3Dシーン再構築といったアプリケーションに恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-13T03:56:22Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,既存の並列処理方式を超越したMoE用パイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法と比較して,プリフィルスループットは52.4%向上した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Yet another Improvement of Plantard Arithmetic for Faster Kyber on
Low-end 32-bit IoT Devices [14.32828779824487]
我々は、定数によるプランタード乗算の入力範囲が、TCHES2022の元の設計より少なくとも2.14倍大きいことを示す。
NTT/INTTの最適化手法を提案する。
我々のNTT/INTT実装は、最先端の作業と比べてかなりのスピードアップを示している。
論文 参考訳(メタデータ) (2023-09-01T13:16:13Z) - Efficient Additions and Montgomery Reductions of Large Integers for SIMD [2.362288417229025]
本稿では,512ビット以上の整数に対してモンゴメリー還元と加算を行うための効率的なアルゴリズムを提案する。
新しい加算アルゴリズムは、より小さな加算を用いて大きな整数の追加をシミュレートし、すぐに同じキャリーセットを生成する。
モンゴメリー還元の場合、シリアル乗算はSIMD拡張を用いて効果的に計算できるプリ計算に置き換えられる。
論文 参考訳(メタデータ) (2023-08-31T03:44:49Z) - Reduced Precision Floating-Point Optimization for Deep Neural Network
On-Device Learning on MicroControllers [15.37318446043671]
本稿では,MCUクラスデバイス上でのオンデバイス学習(ODL)プリミティブに対して,新しい精度最適化手法を提案する。
我々のアプローチは、シングルコアMCUのための既存のODLソフトウェアフレームワークよりも2桁以上高速である。
論文 参考訳(メタデータ) (2023-05-30T16:14:16Z) - LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale [80.86029795281922]
トランスにおけるフィードフォワードおよびアテンションプロジェクション層に対するInt8行列乗算法を開発した。
175Bパラメータ16/32ビットのチェックポイントをロードし、Int8に変換し、直ちに使用することができる。
論文 参考訳(メタデータ) (2022-08-15T17:08:50Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - PERMDNN: Efficient Compressed DNN Architecture with Permuted Diagonal
Matrices [35.90103072918056]
ディープニューラルネットワーク(DNN)は、最も重要で人気のある人工知能(AI)技術として登場した。
モデルサイズの成長は、基盤となるコンピューティングプラットフォームにとって重要なエネルギー効率の課題である。
本稿では、ハードウェアフレンドリーな構造化DNNモデルの生成と実行のための新しいアプローチであるPermDNNを提案する。
論文 参考訳(メタデータ) (2020-04-23T02:26:40Z) - Fast Implementation of Morphological Filtering Using ARM NEON Extension [0.9135092203041721]
ARMプロセッサにおける形態素画像フィルタリングの高速化の可能性を検討する。
ARM SIMD拡張NEONを用いた浸食・拡張の高速化を提案する。
浸食および浸食の最終実施時の効率は3倍に向上した。
論文 参考訳(メタデータ) (2020-02-19T12:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。