論文の概要: KLiNQ: Knowledge Distillation-Assisted Lightweight Neural Network for Qubit Readout on FPGA
- arxiv url: http://arxiv.org/abs/2503.03544v1
- Date: Wed, 05 Mar 2025 14:28:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:51:08.528328
- Title: KLiNQ: Knowledge Distillation-Assisted Lightweight Neural Network for Qubit Readout on FPGA
- Title(参考訳): KLiNQ:FPGA上でのビット読み出しのための知識蒸留支援軽量ニューラルネットワーク
- Authors: Xiaorang Guo, Tigran Bunarjyan, Dai Liu, Benjamin Lienhard, Martin Schulz,
- Abstract要約: 本稿では,知識蒸留により最適化された軽量ニューラルネットワークを活用した新しい量子ビット読み出しアーキテクチャKLiNQを提案する。
提案手法は,Qubit状態の判別精度91%を維持しながら,ベースラインに比べてモデルサイズを約99%削減する。
- 参考スコア(独自算出の注目度): 1.2832548102732355
- License:
- Abstract: Superconducting qubits are among the most promising candidates for building quantum information processors. Yet, they are often limited by slow and error-prone qubit readout -- a critical factor in achieving high-fidelity operations. While current methods, including deep neural networks, enhance readout accuracy, they typically lack support for mid-circuit measurements essential for quantum error correction, and they usually rely on large, resource-intensive network models. This paper presents KLiNQ, a novel qubit readout architecture leveraging lightweight neural networks optimized via knowledge distillation. Our approach achieves around a 99% reduction in model size compared to the baseline while maintaining a qubit-state discrimination accuracy of 91%. KLiNQ facilitates rapid, independent qubit-state readouts that enable mid-circuit measurements by assigning a dedicated, compact neural network for each qubit. Implemented on the Xilinx UltraScale+ FPGA, our design can perform the discrimination within 32ns. The results demonstrate that compressed neural networks can maintain high-fidelity independent readout while enabling efficient hardware implementation, advancing practical quantum computing.
- Abstract(参考訳): 超伝導量子ビットは、量子情報プロセッサを構築する上で最も有望な候補の一つである。
しかし、それらはしばしば、遅くてエラーを起こしやすいキュービットの読み出しによって制限されます -- 高忠実度操作を達成する上で重要な要素です。
ディープニューラルネットワークを含む現在の手法では読み出し精度が向上するが、通常は量子エラー補正に不可欠な中間回路計測のサポートが欠如しており、大容量のリソース集約型ネットワークモデルに依存している。
本稿では,知識蒸留により最適化された軽量ニューラルネットワークを活用した新しい量子ビット読み出しアーキテクチャKLiNQを提案する。
提案手法は,Qubit状態の判別精度91%を維持しながら,ベースラインに比べてモデルサイズを約99%削減する。
KLiNQは、キュービット毎に専用でコンパクトなニューラルネットワークを割り当てることで、中間回路の測定を可能にする、高速で独立したキュービット状態の読み出しを容易にする。
Xilinx UltraScale+ FPGAに実装されているこの設計は、32ns以内で識別を行うことができる。
その結果、圧縮ニューラルネットワークは、効率的なハードウェア実装を実現し、実用的な量子コンピューティングを進歩させながら、高忠実度独立な読み出しを維持できることを示した。
関連論文リスト
- Low-latency machine learning FPGA accelerator for multi-qubit-state discrimination [1.6773398825542363]
量子ビット状態を測定することは、量子コンピューティングにおいて基本的ながエラーを起こしやすい操作である。
ここでは、ニューラルネットワークをフィールドプログラマブルゲートアレイ(FPGA)上に展開するための統合的なアプローチを用いる。
マルチキュービット読み出しに完全接続型ニューラルネットワークアクセラレータを実装するのが有利であることを示す。
論文 参考訳(メタデータ) (2024-07-04T11:34:43Z) - Distributed Quantum Neural Networks via Partitioned Features Encoding [0.0]
量子ニューラルネットワークは、短期量子コンピューティングにおける有望な応用であると期待されている。
本稿では,複数の小回路を用いて大回路の出力を近似して予測する。
提案手法は,大規模データセットの高精度な予測だけでなく,各量子ニューラルネットワークのハードウェア要件も低減した。
論文 参考訳(メタデータ) (2023-12-21T08:21:44Z) - On-Chip Hardware-Aware Quantization for Mixed Precision Neural Networks [52.97107229149988]
エッジデバイス上でハードウェア対応の混合精度量子化を行うOn-Chipハードウェア・アウェア量子化フレームワークを提案する。
このパイプラインは、量子化プロセスが量子化演算子の実際のハードウェア効率を知覚することを可能にする。
精度測定のために,マルチチップシナリオにおける演算子の精度への影響を効果的に推定するMask-Guided Quantization Estimation技術を提案する。
論文 参考訳(メタデータ) (2023-09-05T04:39:34Z) - Deep Quantum Error Correction [73.54643419792453]
量子誤り訂正符号(QECC)は、量子コンピューティングのポテンシャルを実現するための鍵となる要素である。
本研究では,新しいエンペンド・ツー・エンドの量子誤りデコーダを効率的に訓練する。
提案手法は,最先端の精度を実現することにより,QECCのニューラルデコーダのパワーを実証する。
論文 参考訳(メタデータ) (2023-01-27T08:16:26Z) - Scaling Qubit Readout with Hardware Efficient Machine Learning
Architectures [0.0]
本稿では,量子状態識別のための拡張性のあるニューラルネットワークとともに,マッチングフィルタの階層構造を用いて,量子状態の識別を改善するスケーラブルなアプローチを提案する。
我々は,既製のFPGA上で容易に実装可能なスケーラブルな設計により,ベースラインよりもはるかに高い読み出し精度(16.4%の相対的な改善)を実現している。
論文 参考訳(メタデータ) (2022-12-07T19:00:09Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Post-training Quantization for Neural Networks with Provable Guarantees [9.58246628652846]
学習後ニューラルネットワーク量子化手法であるGPFQを,欲求経路追従機構に基づいて修正する。
単層ネットワークを定量化するためには、相対二乗誤差は本質的に重み数で線形に減衰する。
論文 参考訳(メタデータ) (2022-01-26T18:47:38Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - LogicNets: Co-Designed Neural Networks and Circuits for
Extreme-Throughput Applications [6.9276012494882835]
本稿では,高効率FPGA実装に直接マップするニューラルネットワークトポロジを設計する新しい手法を提案する。
その結果,低ビット化と疎結合化の両立により,論理深度が小さく,LUTコストが低い高速回路が実現された。
論文 参考訳(メタデータ) (2020-04-06T22:15:41Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。