論文の概要: Large-Scale FPGA-Based Privacy Amplification Exceeding $10^8$ Bits for Quantum Key Distribution
- arxiv url: http://arxiv.org/abs/2503.09331v1
- Date: Wed, 12 Mar 2025 12:25:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:35:43.735952
- Title: Large-Scale FPGA-Based Privacy Amplification Exceeding $10^8$ Bits for Quantum Key Distribution
- Title(参考訳): 量子鍵分布のための10^8$ビットの大規模FPGAベースプライバシアンプリフィケーション
- Authors: Xi Cheng, Hao-kun Mao, Hong-wei Xu, Qiong Li,
- Abstract要約: プライバシ増幅(PA)は、量子鍵分配(QKD)後処理において必須である。
リソースが限られているため、FPGAベースのPA方式では、入力と出力のサイズが主要なボトルネックとなっている。
本稿では,入力ブロックサイズと出力キーサイズが108ドルを超える大規模FPGAベースのPA方式を提案する。
- 参考スコア(独自算出の注目度): 7.547771404171612
- License:
- Abstract: Privacy Amplification (PA) is indispensable in Quantum Key Distribution (QKD) post-processing, as it eliminates information leakage to eavesdroppers. Field-programmable gate arrays (FPGAs) are highly attractive for QKD systems due to their flexibility and high integration. However, due to limited resources, input and output sizes remain the primary bottleneck in FPGA-based PA schemes for Discrete Variable (DV)-QKD systems. In this paper, we present a large-scale FPGA-based PA scheme that supports both input block sizes and output key sizes exceeding $10^8$ bits, effectively addressing the challenges posed by the finite-size effect. To accommodate the large input and output sizes, we propose a novel PA algorithm and prove its security. We implement and evaluate this scheme on a Xilinx XCKU095 FPGA platform. Experimental results demonstrate that our PA implementation can handle an input block size of $10^8$ bits with flexible output sizes up to the input size. For DV-QKD systems, our PA scheme supports an input block size nearly two orders of magnitude larger than current FPGA-based PA schemes, significantly mitigating the impact of the finite-size effect on the final secure key rate.
- Abstract(参考訳): プライバシ増幅(PA)は、盗聴者への情報漏洩を排除するため、量子鍵配布(QKD)後処理において必須である。
フィールドプログラマブルゲートアレイ(FPGA)は、その柔軟性と高統合性のため、QKDシステムにとって非常に魅力的である。
しかし、リソースが限られているため、FPGAベースの離散変数(DV)-QKDシステムにおいて、入力と出力のサイズが主要なボトルネックとなっている。
本稿では,10^8$ビットを超える入力ブロックサイズと出力キーサイズの両方をサポートするFPGAベースの大規模PA方式を提案する。
大規模な入力および出力サイズに対応するため,我々は新しいPAアルゴリズムを提案し,その安全性を証明した。
我々は、Xilinx XCKU095 FPGAプラットフォーム上でこのスキームを実装し、評価する。
実験結果から,PA実装は入力ブロックサイズが10^8$で,出力サイズがフレキシブルであることを示す。
DV-QKDシステムでは、我々のPA方式は、現在のFPGAベースのPA方式よりも2桁近い入力ブロックサイズをサポートし、有限サイズ効果が最終的な鍵レートに与える影響を著しく軽減する。
関連論文リスト
- Joint Transmit and Pinching Beamforming for PASS: Optimization-Based or Learning-Based? [89.05848771674773]
MISO (Multiple-input Single-output) フレームワークを提案する。
それは複数の導波路で構成されており、多数の低コストアンテナ(PA)を備えている。
PAの位置は、大規模パスと空間の両方にまたがるように再構成することができる。
論文 参考訳(メタデータ) (2025-02-12T18:54:10Z) - AdaLog: Post-Training Quantization for Vision Transformers with Adaptive Logarithm Quantizer [54.713778961605115]
Vision Transformer (ViT) はコンピュータビジョンコミュニティにおいて最も普及しているバックボーンネットワークの1つである。
本稿では,AdaLog(Adaptive Logarithm AdaLog)量子化器を提案する。
論文 参考訳(メタデータ) (2024-07-17T18:38:48Z) - SWAT: Scalable and Efficient Window Attention-based Transformers Acceleration on FPGAs [3.302913401404089]
スライディングウィンドウベースの静的スパースアテンションは、入力トークンのアテンションスコープを制限することで問題を緩和する。
本稿では,データフローを意識したFPGAベースのアクセラレーション設計であるSWATを提案する。
論文 参考訳(メタデータ) (2024-05-27T10:25:08Z) - Accurate Block Quantization in LLMs with Outliers [0.6138671548064355]
極大規模LLMの推理需要はここ数カ月で大きく伸びている。
この問題は処理中のシーケンスの長さが爆発的に増加することで増大する。
重みとアクティベーションの両方の正確な量子化を可能にする様々な量子化技術が提案されている。
論文 参考訳(メタデータ) (2024-03-29T12:15:06Z) - Broadband parametric amplification in DARTWARS [64.98268713737]
トラベリングウェーブパラメトリック増幅器(TWPA)は、マルチギガヘルツ増幅帯域のため、実用用途に特に適している可能性がある。
DARTWARSプロジェクトは、増幅の20ドルdBを達成できるKITWPAの開発を目指している。
測定の結果、KITWPAの長さ17,$mmの帯域幅で約9,dBの増幅が得られた。
論文 参考訳(メタデータ) (2024-02-19T10:57:37Z) - Deterministic identification over channels with finite output: a dimensional perspective on superlinear rates [49.126395046088014]
有限出力であるが任意の入力アルファベットを持つメモリレスチャネルに対する一般性の問題を考える。
主な発見は、メッセージの最大長が$R,nlog n$、ブロック長$n$と超直線的にスケールすることである。
出力分布のペアの信頼性を保証し、DIコードを構築するのに十分であることを示す。
論文 参考訳(メタデータ) (2024-02-14T11:59:30Z) - A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance [49.1574468325115]
accumulator-aware Quantization (A2Q)は、量子化されたニューラルネットワーク(QNN)をトレーニングして、推論時のオーバーフローを回避するために設計された新しい重み量子化手法である。
A2Qは重み正規化にインスパイアされたユニークな定式化を導入し、アキュミュレータビット幅境界に従ってモデルの重みのL1ノルムを制約する。
A2Qは浮動小数点ベースラインと競合するモデルの精度を維持しつつ、低精度のアキュムレータのためのQNNを訓練できることを示す。
論文 参考訳(メタデータ) (2023-08-25T17:28:58Z) - End-to-end resource analysis for quantum interior point methods and portfolio optimization [63.4863637315163]
問題入力から問題出力までの完全な量子回路レベルのアルゴリズム記述を提供する。
アルゴリズムの実行に必要な論理量子ビットの数と非クリフォードTゲートの量/深さを報告する。
論文 参考訳(メタデータ) (2022-11-22T18:54:48Z) - Large-scale and High-speed Privacy Amplification for FPGA-based Quantum
Key Distribution [0.0]
FPGAベースの量子鍵分布(QKD)システムはQKDシステムの重要なトレンドである。
本稿では,マルチ線形モジュラーハッシュモジュラー演算ハッシュ(MMH-MH)PAと数値理論変換(NTT)アルゴリズムを用いたFPGAベースのQKDのための新しいPAスキームを設計する。
論文 参考訳(メタデータ) (2021-07-02T12:35:55Z) - An efficient hybrid hash based privacy amplification algorithm for
quantum key distribution [0.0]
本稿では,新しいプライバシー増幅アルゴリズムを提案する。
デスクトップCPUやサーバCPUではなく、モバイルCPUプラットフォームで実装されている。
論文 参考訳(メタデータ) (2021-05-28T08:57:06Z) - Mix and Match: A Novel FPGA-Centric Deep Neural Network Quantization
Framework [39.981546951333556]
本稿では,ハードウェアフレンドリーなモデル圧縮手法である重量量子化について述べる。
これは、(1)異なる行の重みの分布は同じではなく、(2)FPGAハードウェアリソースのより良い利用を達成する可能性によって動機づけられます。
論文 参考訳(メタデータ) (2020-12-08T06:25:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。