論文の概要: An Efficient Elliptic Curve Cryptography Arithmetic Using Nikhilam Multiplication
- arxiv url: http://arxiv.org/abs/2311.11392v1
- Date: Sun, 19 Nov 2023 18:29:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 22:53:06.769633
- Title: An Efficient Elliptic Curve Cryptography Arithmetic Using Nikhilam Multiplication
- Title(参考訳): ニコラム乗算を用いた効率的な楕円曲線暗号算術
- Authors: Prokash Barman, Banani Saha,
- Abstract要約: ニヒラム経は2つの大きな十進数の乗算に効率的である。
楕円曲線暗号の関数速度は、スカラー乗算のためのNikhilam法を用いて向上することができる。
- 参考スコア(独自算出の注目度): 1.864621482724548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiplication is one of the most important operation in Elliptic Curve Cryptography (ECC) arithmetic. For point addition and point doubling in ECC scalar (integer) multiplication is required. In higher order classical (standard) multiplication many intermediate operations are required. Reduced operation in multiplication will increase the functional speed of ECC arithmetic. These goals can be achieved using ancient multiplication algorithm namely Nikhilam Sutra. Nikhilam Sutra is one of the Sutra (algorithm) within 16 Vedic mathematics Sutras (algorithms). Nikhilam Sutra is efficient for multiplying two large decimal numbers. The Sutra reduces multiplication of two large numbers into two smaller numbers multiplication. The functional speed of Elliptic Curve Cryptography can be increased using Nikhilam method for scalar multiplication.
- Abstract(参考訳): 乗算は楕円曲線暗号(ECC)算術において最も重要な演算の1つである。
ECCスカラー(整数)乗算における点加算と点倍増は必要である。
より高階の古典的(標準的な)乗法では、多くの中間演算が必要である。
乗算における演算の削減は、ECC演算の関数速度を増大させる。
これらの目的は、古代の乗算アルゴリズムである日比羅経を用いて達成できる。
ニキラーム経(ニキラームきょう)は、16のヴェーダ数学の経典(algorithms)に含まれる経典(algorithms)の一つ。
ニヒラム経は2つの大きな十進数の乗算に効率的である。
この経典は2つの大数の乗算を2つの小数の乗算に減らす。
楕円曲線暗号の関数速度は、スカラー乗算のためのNikhilam法を用いて向上することができる。
関連論文リスト
- Fast quantum integer multiplication with zero ancillas [0.5755004576310334]
我々は,ゼロアンシラ量子ビットを用いた準四進時間量子乗法の新しいパラダイムを導入する。
関連するキュービットは入力と出力レジスタ自身のみである。
我々のアルゴリズムは、実際的な問題の大きさよりも優れている可能性がある。
論文 参考訳(メタデータ) (2024-03-26T18:00:03Z) - Reverse That Number! Decoding Order Matters in Arithmetic Learning [49.5504492920404]
本研究は,最少の桁から出力を優先順位付けすることで,桁順を再評価する新たな戦略を導入する。
従来のSOTA法と比較すると,通常のトレーニングで使用するトークンの3分の1しか必要とせず,精度の全体的な改善が見られた。
論文 参考訳(メタデータ) (2024-03-09T09:04:53Z) - Solving the multiplication problem of a large language model system
using a graph-based method [20.43440908151311]
ChatGPTには優れた自然言語処理能力があるが、算術問題を解くには不十分である。
我々は,人間のような数値演算をエミュレートするグラフベースの乗算アルゴリズムを開発した。
提案アルゴリズムは,1000,000個の乗算タスクに対して100%精度が得られた。
論文 参考訳(メタデータ) (2023-10-18T08:02:00Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Quantum Algorithm based on Quantum Fourier Transform for
Register-by-Constant Addition [0.0]
量子演算アルゴリズムは、大きな値集合に算術演算を同時に適用することができる。
私は、ターゲットレジスタに定数だけを追加する必要がある場合に、Draperよりも効率的な加算アルゴリズムを提示します。
論文 参考訳(メタデータ) (2022-07-12T04:43:40Z) - An Efficient Summation Algorithm for the Accuracy, Convergence and
Reproducibility of Parallel Numerical Methods [0.0]
我々は浮動小数点数の列をまとめる新しい並列アルゴリズムを導入した。
プロセッサ数で簡単にスケールアップできるこのアルゴリズムは、まず同じ指数の数を加算する。
この記事では、いくつかの特性に関して、その効率を広範囲に分析する。
論文 参考訳(メタデータ) (2022-05-11T08:31:48Z) - Efficient Floating Point Arithmetic for Quantum Computers [1.189955933770711]
量子コンピューティングの大きな約束の1つは、重ね合わせ現象を用いたSIMD(単一命令 - 複数のデータ)演算の実現である。
我々は、符号なし整数量子回路を便利に生成できる半ブールと呼ばれる符号化形式を導入している。
我々は、このタイプの評価を、アンシラのないインプレース乗算や整数係数評価などの追加機能で拡張する。
論文 参考訳(メタデータ) (2021-12-20T14:00:36Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z) - Neural Arithmetic Units [84.65228064780744]
ニューラルネットワークは複雑な関数を近似することができるが、実数に対して正確な算術演算を行うのに苦労する。
ニューラルネットワークコンポーネントとして、正確な加算と減算を学習可能なニューラル加算ユニット(NAU)と、ベクトルのサブセットを乗算可能なニューラル乗算ユニット(NMU)がある。
提案したユニットNAUとNMUは、従来のニューラルネットワークユニットと比較して、より一貫して収束し、パラメータを少なくし、より速く学習し、より大きな隠れたサイズに収束し、スパースと意味のある重みを得、負の値と小さな値に外挿することができる。
論文 参考訳(メタデータ) (2020-01-14T19:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。