論文の概要: Standalone FPGA-Based QAOA Emulator for Weighted-MaxCut on Embedded Devices
- arxiv url: http://arxiv.org/abs/2502.11316v1
- Date: Sun, 16 Feb 2025 23:30:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:09:02.264850
- Title: Standalone FPGA-Based QAOA Emulator for Weighted-MaxCut on Embedded Devices
- Title(参考訳): 組み込みデバイス上での重み付きMaxCutのためのスタンドアローンFPGAベースのQAOAエミュレータ
- Authors: Seonghyun Choi, Kyeongwon Lee, Jae-Jin Lee, Woojoo Lee,
- Abstract要約: 本研究は,組み込みシステムのための,コンパクトでスタンドアロンなFPGAベースのQCエミュレータを提案する。
提案した設計は、時間複雑性を O(N2) から O(N) に還元する。
エミュレータは2キュービット構成の1.53倍から9キュービット構成の852倍までの省エネを実現した。
- 参考スコア(独自算出の注目度): 3.384874651944418
- License:
- Abstract: Quantum computing QC emulation is crucial for advancing QC applications, especially given the scalability constraints of current devices. FPGA-based designs offer an efficient and scalable alternative to traditional large-scale platforms, but most are tightly integrated with high-performance systems, limiting their use in mobile and edge environments. This study introduces a compact, standalone FPGA-based QC emulator designed for embedded systems, leveraging the Quantum Approximate Optimization Algorithm (QAOA) to solve the Weighted-MaxCut problem. By restructuring QAOA operations for hardware compatibility, the proposed design reduces time complexity from O(N^2) to O(N), where N equals 2^n for n qubits. This reduction, coupled with a pipeline architecture, significantly minimizes resource consumption, enabling support for up to nine qubits on mid-tier FPGAs, roughly three times more than comparable designs. Additionally, the emulator achieved energy savings ranging from 1.53 times for two-qubit configurations to up to 852 times for nine-qubit configurations, compared to software-based QAOA on embedded processors. These results highlight the practical scalability and resource efficiency of the proposed design, providing a robust foundation for QC emulation in resource-constrained edge devices.
- Abstract(参考訳): 量子コンピューティング QCエミュレーションは、特に現在のデバイスのスケーラビリティの制約を考えると、QCアプリケーションの進歩に不可欠である。
FPGAベースの設計は、従来の大規模プラットフォームに代わる効率的でスケーラブルな代替手段を提供するが、その多くは高性能システムと密に統合されており、モバイルやエッジ環境での使用を制限している。
本研究は、量子近似最適化アルゴリズム(QAOA)を用いて、組み込みシステム用に設計された、コンパクトでスタンドアロンのFPGAベースのQCエミュレータを提案する。
ハードウェア互換性のためのQAOA演算を再構成することにより、提案した設計により、時間複雑性をO(N^2)からO(N)に低減し、Nはn量子ビットに対して2^nに等しい。
この削減はパイプラインアーキテクチャと組み合わされ、リソース消費を著しく最小化し、中間層のFPGAで最大9量子ビットをサポートする。
さらに、エミュレータは2ビット構成の1.53倍から9ビット構成の852倍まで、組込みプロセッサのソフトウェアベースのQAOAに比べて省エネを実現した。
これらの結果は,提案設計の実用的スケーラビリティと資源効率を強調し,資源制約エッジデバイスにおけるQCエミュレーションの堅牢な基盤を提供する。
関連論文リスト
- HEPPO: Hardware-Efficient Proximal Policy Optimization -- A Universal Pipelined Architecture for Generalized Advantage Estimation [0.0]
HEPPOはFPGAベースのアクセラレーターで、プロキシポリシー最適化における一般化アドバンテージ推定の段階を最適化するために設計された。
鍵となる革新は、動的報酬標準化と値のブロック標準化を組み合わせた戦略的標準化技術であり、8ビット均一量子化が続く。
私たちのシングルチップソリューションは通信遅延とスループットのボトルネックを最小限にし、PPOトレーニングの効率を大幅に向上します。
論文 参考訳(メタデータ) (2025-01-22T08:18:56Z) - Compiler for Distributed Quantum Computing: a Reinforcement Learning Approach [6.347685922582191]
本稿では,EPRペアの生成とルーティングを共同で管理することで,実行時間の短縮を優先する新しいコンパイラを提案する。
本稿では, 量子回路の絡み合い生成の性質と動作要求を考慮し, リアルタイムかつ適応的なコンパイラ設計手法を提案する。
i)マルコフ決定過程(MDP)の定式化を用いてDQCの最適コンパイラをモデル化し、最適アルゴリズムの存在を確立し、(ii)この最適コンパイラを近似するために制約付き強化学習(RL)法を導入する。
論文 参考訳(メタデータ) (2024-04-25T23:03:20Z) - A2Q: Accumulator-Aware Quantization with Guaranteed Overflow Avoidance [49.1574468325115]
accumulator-aware Quantization (A2Q)は、量子化されたニューラルネットワーク(QNN)をトレーニングして、推論時のオーバーフローを回避するために設計された新しい重み量子化手法である。
A2Qは重み正規化にインスパイアされたユニークな定式化を導入し、アキュミュレータビット幅境界に従ってモデルの重みのL1ノルムを制約する。
A2Qは浮動小数点ベースラインと競合するモデルの精度を維持しつつ、低精度のアキュムレータのためのQNNを訓練できることを示す。
論文 参考訳(メタデータ) (2023-08-25T17:28:58Z) - DeepGEMM: Accelerated Ultra Low-Precision Inference on CPU Architectures
using Lookup Tables [49.965024476651706]
DeepGEMMはSIMDハードウェア上で超高精度畳み込みニューラルネットワークを実行するためのルックアップテーブルベースのアプローチである。
実装は、x86プラットフォーム上で、対応する8ビット整数カーネルを最大1.74倍の性能で上回る。
論文 参考訳(メタデータ) (2023-04-18T15:13:10Z) - Decomposition of Matrix Product States into Shallow Quantum Circuits [62.5210028594015]
テンソルネットワーク(TN)アルゴリズムは、パラメタライズド量子回路(PQC)にマッピングできる
本稿では,現実的な量子回路を用いてTN状態を近似する新しいプロトコルを提案する。
その結果、量子回路の逐次的な成長と最適化を含む1つの特定のプロトコルが、他の全ての手法より優れていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-01T17:08:41Z) - Robust resource-efficient quantum variational ansatz through
evolutionary algorithm [0.46180371154032895]
Vari Quantum Algorithm (VQAsational) は、短期デバイスにおける量子優位性を実証するための有望な手法である。
我々は、広く使われているハードウェア効率の良いアンサッツのような固定VQA回路設計は、必ずしも不完全性に対して堅牢ではないことを示す。
本稿では,ゲノム長調整可能な進化アルゴリズムを提案し,回路アンサッツおよびゲートパラメータの変動に最適化されたロバストなVQA回路を設計する。
論文 参考訳(メタデータ) (2022-02-28T12:14:11Z) - VAQF: Fully Automatic Software-hardware Co-design Framework for Low-bit
Vision Transformer [121.85581713299918]
量子化ビジョントランス(ViT)のためのFPGAプラットフォーム上で推論アクセラレータを構築するフレームワークVAQFを提案する。
モデル構造と所望のフレームレートから、VAQFはアクティベーションに必要な量子化精度を自動的に出力する。
FPGA上でのViTアクセラレーションに量子化が組み込まれたのはこれが初めてである。
論文 参考訳(メタデータ) (2022-01-17T20:27:52Z) - Scaling Quantum Approximate Optimization on Near-term Hardware [49.94954584453379]
我々は、様々なレベルの接続性を持つハードウェアアーキテクチャのための最適化回路により、期待されるリソース要求のスケーリングを定量化する。
問題の大きさと問題グラフの次数で指数関数的に増大する。
これらの問題は、ハードウェア接続性の向上や、より少ない回路層で高い性能を達成するQAOAの変更によって緩和される可能性がある。
論文 参考訳(メタデータ) (2022-01-06T21:02:30Z) - SECDA: Efficient Hardware/Software Co-Design of FPGA-based DNN
Accelerators for Edge Inference [0.0]
本稿では,FPGAを用いたエッジデバイス上でのDeep Neural Networks (DNN) 推論アクセラレータの設計時間を短縮するハードウェア/ソフトウェア共同設計手法であるSECDAを提案する。
SECDAを用いて、エッジFPGAを含むプラットフォームであるPYNQ-Z1基板上で、2つの異なるDNNアクセラレータ設計を効率的に開発する。
我々は,4つの一般的なDNNモデルを用いた2つの加速器設計を評価し,CPUのみの推論よりもエネルギー消費を2.9$times$で3.5$times$までのモデルで平均性能を向上した。
論文 参考訳(メタデータ) (2021-10-01T15:20:29Z) - Reconfigurable co-processor architecture with limited numerical
precision to accelerate deep convolutional neural networks [0.38848561367220275]
畳み込みニューラルネットワーク(CNN)は、視覚システムやロボット工学などのディープラーニングアプリケーションで広く使われている。
本稿では,CNNを高速化するために,モデルに依存しない再構成可能なコプロセッシングアーキテクチャを提案する。
既存の解とは対照的に、算術表現や演算のための限定精度32bit Q-format固定点量子化を導入する。
論文 参考訳(メタデータ) (2021-08-21T09:50:54Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。