論文の概要: LUNA: LUT-Based Neural Architecture for Fast and Low-Cost Qubit Readout
- arxiv url: http://arxiv.org/abs/2512.07808v1
- Date: Mon, 08 Dec 2025 18:41:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:55.009043
- Title: LUNA: LUT-Based Neural Architecture for Fast and Low-Cost Qubit Readout
- Title(参考訳): LUNA: 高速かつ低コストの量子ビット読み出しのためのLUTベースのニューラルネットワーク
- Authors: M. A. Farooq, G. Di Guglielmo, A. Rajagopala, N. Tran, V. A. Chhabria, A. Arora,
- Abstract要約: LUNAは、低コストのインテグレータベースの前処理とLook-Up Table (LUT)ベースのニューラルネットワークを組み合わせた超伝導量子ビットリードアウトアクセラレータである。
最先端技術と比較して10.95倍の面積減少と30%のレイテンシ低下を示し,忠実さの損失はほとんどなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Qubit readout is a critical operation in quantum computing systems, which maps the analog response of qubits into discrete classical states. Deep neural networks (DNNs) have recently emerged as a promising solution to improve readout accuracy . Prior hardware implementations of DNN-based readout are resource-intensive and suffer from high inference latency, limiting their practical use in low-latency decoding and quantum error correction (QEC) loops. This paper proposes LUNA, a fast and efficient superconducting qubit readout accelerator that combines low-cost integrator-based preprocessing with Look-Up Table (LUT) based neural networks for classification. The architecture uses simple integrators for dimensionality reduction with minimal hardware overhead, and employs LogicNets (DNNs synthesized into LUT logic) to drastically reduce resource usage while enabling ultra-low-latency inference. We integrate this with a differential evolution based exploration and optimization framework to identify high-quality design points. Our results show up to a 10.95x reduction in area and 30% lower latency with little to no loss in fidelity compared to the state-of-the-art. LUNA enables scalable, low-footprint, and high-speed qubit readout, supporting the development of larger and more reliable quantum computing systems.
- Abstract(参考訳): 量子コンピュータシステムでは、量子ビットのアナログ応答を離散古典状態にマッピングするクビット読み出し(Qubit readout)が重要な操作である。
ディープニューラルネットワーク(DNN)は、読み取り精度を改善するための有望なソリューションとして最近登場した。
DNNベースのリードアウトの以前のハードウェア実装はリソース集約であり、高い推論遅延に悩まされており、低遅延復号および量子エラー訂正(QEC)ループでの実用的使用を制限していた。
本稿では,Look-Up Table (LUT) ベースのニューラルネットワークと低コストインテグレータベースのプリプロセッシングを組み合わせた高速かつ効率的な超伝導量子ビットリードアウトアクセラレータLUNAを提案する。
このアーキテクチャでは、ハードウェアオーバーヘッドを最小限に抑えるために単純な積分器を使用し、LogicNets(LUTロジックに合成されたDNN)を使用してリソース使用量を劇的に削減し、超低遅延推論を可能にしている。
我々はこれを差分進化に基づく探索と最適化のフレームワークと統合し、高品質な設計ポイントを特定します。
以上の結果から, 面積が10.95倍減少し, 30%のレイテンシが低下し, 忠実度が低下する可能性が示唆された。
LUNAはスケーラブルで低フットプリントで高速なキュービット読み出しを可能にし、より大きく信頼性の高い量子コンピューティングシステムの開発をサポートする。
関連論文リスト
- NeuraLUT-Assemble: Hardware-aware Assembling of Sub-Neural Networks for Efficient LUT Inference [2.7086888205833968]
ルックアップテーブル(LUT)を活用したNN(Efficient Neural Network)は、新興AIアプリケーションにおいて大きな可能性を示している。
既存のLUTベースの設計では、入力幅のLUTリソースの指数的スケーリングによって制限されたニューロンが要求するファンインが大きいため、精度が低下する。
我々は、これらの制限に対処する新しいフレームワークであるNeuraLUT-Assembleを紹介する。
論文 参考訳(メタデータ) (2025-04-01T09:52:38Z) - KLiNQ: Knowledge Distillation-Assisted Lightweight Neural Network for Qubit Readout on FPGA [1.2832548102732355]
本稿では,知識蒸留により最適化された軽量ニューラルネットワークを活用した新しい量子ビット読み出しアーキテクチャKLiNQを提案する。
提案手法は,Qubit状態の判別精度91%を維持しながら,ベースラインに比べてモデルサイズを約99%削減する。
論文 参考訳(メタデータ) (2025-03-05T14:28:16Z) - Enhancing Dropout-based Bayesian Neural Networks with Multi-Exit on FPGA [20.629635991749808]
本稿では,フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータを効率よく生成するアルゴリズムとハードウェアの共同設計フレームワークを提案する。
アルゴリズムレベルでは、計算とメモリのオーバーヘッドを低減した、新しいマルチエグジット・ドロップアウトベースのベイズNNを提案する。
ハードウェアレベルでは,提案する効率的なベイズNNのためのFPGAベースのアクセラレータを生成するための変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-20T17:08:42Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Scaling Qubit Readout with Hardware Efficient Machine Learning
Architectures [0.0]
本稿では,量子状態識別のための拡張性のあるニューラルネットワークとともに,マッチングフィルタの階層構造を用いて,量子状態の識別を改善するスケーラブルなアプローチを提案する。
我々は,既製のFPGA上で容易に実装可能なスケーラブルな設計により,ベースラインよりもはるかに高い読み出し精度(16.4%の相対的な改善)を実現している。
論文 参考訳(メタデータ) (2022-12-07T19:00:09Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。