論文の概要: Efficient Modular Multiplier over GF (2^m) for ECPM
- arxiv url: http://arxiv.org/abs/2506.09464v1
- Date: Wed, 11 Jun 2025 07:14:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.688726
- Title: Efficient Modular Multiplier over GF (2^m) for ECPM
- Title(参考訳): ECPMのためのGF(2^m)上の効率的なモジュラ乗算器
- Authors: Ruby Kumari, Gaurav Purohit, Abhijit Karmakar,
- Abstract要約: 楕円曲線暗号(ECC)が主要な公開鍵プロトコルとして登場している。
本研究では,バイナリフィールドGF(2m)上のモジュラ乗算のためのハイブリッド乗算手法のハードウェア実装を提案する。
従来の乗算(CM)とカラツバ乗算(KM)の組み合わせを最適化して楕円曲線点乗算(ECPM)を強化する設計である。
本手法は,ECC暗号システムの高速化,ハードウェア効率,資源利用を著しく向上させる。
- 参考スコア(独自算出の注目度): 0.10241134756773226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Elliptic curve cryptography (ECC) has emerged as the dominant public-key protocol, with NIST standardizing parameters for binary field GF(2^m) ECC systems. This work presents a hardware implementation of a Hybrid Multiplication technique for modular multiplication over binary field GF(2m), targeting NIST B-163, 233, 283, and 571 parameters. The design optimizes the combination of conventional multiplication (CM) and Karatsuba multiplication (KM) to enhance elliptic curve point multiplication (ECPM). The key innovation uses CM for smaller operands (up to 41 bits for m=163) and KM for larger ones, reducing computational complexity and enhancing efficiency. The design is evaluated in three areas: Resource Utilization For m=163, the hybrid design uses 6,812 LUTs, a 39.82% reduction compared to conventional methods. For m=233, LUT usage reduces by 45.53% and 70.70% compared to overlap-free and bit-parallel implementations. Delay Performance For m=163, achieves 13.31ns delay, improving by 37.60% over bit-parallel implementations. For m=233, maintains 13.39ns delay. Area-Delay Product For m=163, achieves ADP of 90,860, outperforming bit-parallel (75,337) and digit-serial (43,179) implementations. For m=233, demonstrates 16.86% improvement over overlap-free and 96.10% over bit-parallel designs. Results show the hybrid technique significantly improves speed, hardware efficiency, and resource utilization for ECC cryptographic systems.
- Abstract(参考訳): 楕円曲線暗号(ECC)は、バイナリフィールドGF(2^m) ECCシステムのパラメータをNISTで標準化し、主要な公開鍵プロトコルとして登場した。
本研究は, NIST B-163, 233, 283, 571 パラメータを対象とした, 2進体 GF(2m) 上のモジュラ乗算のためのハイブリッド乗算手法のハードウェア実装を提案する。
従来の乗算(CM)とカラツバ乗算(KM)の組み合わせを最適化し、楕円曲線点乗算(ECPM)を強化する。
鍵となる革新は、より小さなオペランド(m=163)で最大41ビット)にCMを使い、大きいものはKMを使い、計算の複雑さを減らし、効率を向上する。
m=163の場合、ハイブリッド設計では6,812 LUTを使用し、従来の手法に比べて39.82%削減されている。
m=233の場合、LUTはオーバーラップフリーやビット並列の実装に比べて45.53%、70.70%減少する。
遅延性能 m=163では13.31nsの遅延を実現し、ビット並列実装よりも37.60%向上した。
m=233の場合、13.39ns遅延を維持する。
エリア遅延製品 m=163の場合、ADPは90,860、ビットパラレルは75,337、桁シリアルは43,179である。
m=233の場合、オーバーラップフリーよりも16.86%、ビット並列設計より96.10%改善している。
本手法は,ECC暗号システムの高速化,ハードウェア効率,資源利用を著しく向上させる。
関連論文リスト
- Step-3 is Large yet Affordable: Model-system Co-design for Cost-effective Decoding [144.70522923640095]
大規模言語モデル(LLM)はデコード時にハードウェア効率が低下する。
本稿では,デコードコストの最小化に最適化されたハードウェア対応モデルシステムであるStep-3を紹介する。
Step-3はDeepSeek-V3やQwen3 MoE 235Bのようなモデルと比較して、理論的デコードコストを大幅に削減する。
論文 参考訳(メタデータ) (2025-07-25T16:53:13Z) - UnIT: Scalable Unstructured Inference-Time Pruning for MAC-efficient Neural Inference on MCUs [1.9626657740463982]
UnIT (Unstructured Inference-Time pruning) は、推論中に不要な乗算(MAC)操作を動的に識別し、スキップする軽量な手法である。
プルーニング決定を軽量比較に変換し、乗算をしきい値チェックと近似分割に置き換える。
UNITは11.02%から82.03%のMAC削減、27.30%から84.19%の高速推論、27.33%から84.38%の低エネルギー化を実現している。
論文 参考訳(メタデータ) (2025-07-10T16:12:06Z) - Cost-Effective Optimization and Implementation of the CRT-Paillier Decryption Algorithm for Enhanced Performance [0.0]
本稿では,eCRT-Paillier復号アルゴリズムを提案する。
これらの2つの改善により、CRT-Paillier復号アルゴリズムの後処理において、50%のモジュラ乗算と60%の判定操作が削減された。
評価のために、Xilinx Virtex-7 FPGAにMESAという高スループットで効率的なPaillierアクセラレータを実装した。
論文 参考訳(メタデータ) (2025-06-22T08:06:36Z) - The Cambrian Explosion of Mixed-Precision Matrix Multiplication for Quantized Deep Learning Inference [0.9954176833299684]
ディープラーニング(DL)は、従来の64ビット浮動小数点(FP64)計算から、縮小精度のフォーマットへと変化した。
本稿では,従来のハイパフォーマンスなgemを改訂し,それを混合精度整数算術に適用するための戦略について述べる。
論文 参考訳(メタデータ) (2025-06-13T12:40:16Z) - Learning Adaptive Parallel Reasoning with Language Models [70.1745752819628]
本稿では,適応並列推論(Adaptive Parallel Reasoning, APR)を提案する。
APRは、spawn()とjoin()操作を使用して適応的なマルチスレッド推論を可能にすることで、既存の推論メソッドを一般化する。
鍵となる革新は、親と子の両方の推論スレッドを最適化して、事前に定義された推論構造を必要とせずにタスクの成功率を高める、エンドツーエンドの強化学習戦略である。
論文 参考訳(メタデータ) (2025-04-21T22:29:02Z) - Speedy MASt3R [68.47052557089631]
MASt3Rは、DUSt3Rを活用して高速な相互マッチング方式を導入することで、画像マッチングを3Dタスクとして再定義する。
高速MASt3Rは、精度を犠牲にすることなく、推論時間(画像ペアあたり198msから91ms)を54%削減する。
この進歩により、リアルタイムな3D理解が可能になり、複合現実ナビゲーションや大規模3Dシーン再構築といったアプリケーションに恩恵をもたらす。
論文 参考訳(メタデータ) (2025-03-13T03:56:22Z) - Systems and Algorithms for Convolutional Multi-Hybrid Language Models at Scale [68.6602625868888]
本稿では,2つの簡単な観測に基づいて,畳み込み型マルチハイブリッドアーキテクチャを提案する。
ハイブリッドモデルのオペレータは、インコンテキストリコール、マルチトークンリコール、圧縮などのトークン操作タスクにカスタマイズできる。
我々は、最適化されたトランスフォーマーの1.2倍から2.9倍、以前の世代のハイブリッドの1.1倍から1.4倍の速さでエンドツーエンドを訓練する。
論文 参考訳(メタデータ) (2025-02-25T19:47:20Z) - EPS-MoE: Expert Pipeline Scheduler for Cost-Efficient MoE Inference [49.94169109038806]
本稿では,既存の並列処理方式を超越したMoE用パイプラインスケジューラであるEPS-MoEを紹介する。
その結果,既存の並列推論手法と比較して,プリフィルスループットは52.4%向上した。
論文 参考訳(メタデータ) (2024-10-16T05:17:49Z) - Yet another Improvement of Plantard Arithmetic for Faster Kyber on
Low-end 32-bit IoT Devices [14.32828779824487]
我々は、定数によるプランタード乗算の入力範囲が、TCHES2022の元の設計より少なくとも2.14倍大きいことを示す。
NTT/INTTの最適化手法を提案する。
我々のNTT/INTT実装は、最先端の作業と比べてかなりのスピードアップを示している。
論文 参考訳(メタデータ) (2023-09-01T13:16:13Z) - Efficient Additions and Montgomery Reductions of Large Integers for SIMD [2.362288417229025]
本稿では,512ビット以上の整数に対してモンゴメリー還元と加算を行うための効率的なアルゴリズムを提案する。
新しい加算アルゴリズムは、より小さな加算を用いて大きな整数の追加をシミュレートし、すぐに同じキャリーセットを生成する。
モンゴメリー還元の場合、シリアル乗算はSIMD拡張を用いて効果的に計算できるプリ計算に置き換えられる。
論文 参考訳(メタデータ) (2023-08-31T03:44:49Z) - Reduced Precision Floating-Point Optimization for Deep Neural Network
On-Device Learning on MicroControllers [15.37318446043671]
本稿では,MCUクラスデバイス上でのオンデバイス学習(ODL)プリミティブに対して,新しい精度最適化手法を提案する。
我々のアプローチは、シングルコアMCUのための既存のODLソフトウェアフレームワークよりも2桁以上高速である。
論文 参考訳(メタデータ) (2023-05-30T16:14:16Z) - Adaptable Butterfly Accelerator for Attention-based NNs via Hardware and
Algorithm Co-design [66.39546326221176]
多くのAIタスクにおいて、注意に基づくニューラルネットワークが普及している。
注意機構とフィードフォワードネットワーク(FFN)の使用は、過剰な計算とメモリ資源を必要とする。
本稿では,注目機構とFFNの両方を近似するために,バタフライの分散パターンを統一したハードウェアフレンドリーな変種を提案する。
論文 参考訳(メタデータ) (2022-09-20T09:28:26Z) - LLM.int8(): 8-bit Matrix Multiplication for Transformers at Scale [80.86029795281922]
トランスにおけるフィードフォワードおよびアテンションプロジェクション層に対するInt8行列乗算法を開発した。
175Bパラメータ16/32ビットのチェックポイントをロードし、Int8に変換し、直ちに使用することができる。
論文 参考訳(メタデータ) (2022-08-15T17:08:50Z) - Asymmetric Scalable Cross-modal Hashing [51.309905690367835]
クロスモーダルハッシュは、大規模なマルチメディア検索問題を解決する方法として成功している。
これらの問題に対処する新しい非対称スケーラブルクロスモーダルハッシュ(ASCMH)を提案する。
我々のASCMHは、最先端のクロスモーダルハッシュ法よりも精度と効率の点で優れています。
論文 参考訳(メタデータ) (2022-07-26T04:38:47Z) - PERMDNN: Efficient Compressed DNN Architecture with Permuted Diagonal
Matrices [35.90103072918056]
ディープニューラルネットワーク(DNN)は、最も重要で人気のある人工知能(AI)技術として登場した。
モデルサイズの成長は、基盤となるコンピューティングプラットフォームにとって重要なエネルギー効率の課題である。
本稿では、ハードウェアフレンドリーな構造化DNNモデルの生成と実行のための新しいアプローチであるPermDNNを提案する。
論文 参考訳(メタデータ) (2020-04-23T02:26:40Z) - Fast Implementation of Morphological Filtering Using ARM NEON Extension [0.9135092203041721]
ARMプロセッサにおける形態素画像フィルタリングの高速化の可能性を検討する。
ARM SIMD拡張NEONを用いた浸食・拡張の高速化を提案する。
浸食および浸食の最終実施時の効率は3倍に向上した。
論文 参考訳(メタデータ) (2020-02-19T12:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。