論文の概要: SuperGrad: a differentiable simulator for superconducting processors
- arxiv url: http://arxiv.org/abs/2406.18155v2
- Date: Wed, 23 Oct 2024 03:42:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:52:39.593237
- Title: SuperGrad: a differentiable simulator for superconducting processors
- Title(参考訳): SuperGrad:超伝導プロセッサの差別化可能なシミュレータ
- Authors: Ziang Wang, Feng Wu, Hui-Hai Zhao, Xin Wan, Xiaotong Ni,
- Abstract要約: SuperGradは超伝導量子プロセッサの設計を、勾配計算機能を組み込んで加速するシミュレータである。
SuperGradは、ハミルトン人を構築するためのユーザフレンドリなインターフェースを提供し、複合システムの静的特性と動的特性の両方をコンピューティングする。
- 参考スコア(独自算出の注目度): 29.01665570206951
- License:
- Abstract: One significant advantage of superconducting processors is their extensive design flexibility, which encompasses various types of qubits and interactions. Given the large number of tunable parameters of a processor, the ability to perform gradient optimization would be highly beneficial. Efficient backpropagation for gradient computation requires a tightly integrated software library, for which no open-source implementation is currently available. In this work, we introduce SuperGrad, a simulator that accelerates the design of superconducting quantum processors by incorporating gradient computation capabilities. SuperGrad offers a user-friendly interface for constructing Hamiltonians and computing both static and dynamic properties of composite systems. This differentiable simulation is valuable for a range of applications, including optimal control, design optimization, and experimental data fitting. In this paper, we demonstrate these applications through examples and code snippets.
- Abstract(参考訳): 超伝導プロセッサの大きな利点の1つは、様々な種類の量子ビットと相互作用を含む設計の柔軟性である。
プロセッサの多くの調整可能なパラメータを考えると、勾配最適化を実行する能力は非常に有益である。
勾配計算の効率的なバックプロパゲーションには、厳密に統合されたソフトウェアライブラリが必要である。
本稿では,超伝導量子プロセッサの設計を高速化するシミュレータであるSuperGradを紹介する。
SuperGradは、ハミルトン人を構築するためのユーザフレンドリなインターフェースを提供し、複合システムの静的特性と動的特性の両方をコンピューティングする。
この微分可能シミュレーションは、最適制御、設計最適化、実験データフィッティングなど、様々な用途に有用である。
本稿では,サンプルとコードスニペットを用いてこれらのアプリケーションを実証する。
関連論文リスト
- A Realistic Simulation Framework for Analog/Digital Neuromorphic Architectures [73.65190161312555]
ARCANAは、混合信号ニューロモルフィック回路の特性を考慮に入れたスパイクニューラルネットワークシミュレータである。
その結果,ソフトウェアでトレーニングしたスパイクニューラルネットワークの挙動を,信頼性の高い推定結果として提示した。
論文 参考訳(メタデータ) (2024-09-23T11:16:46Z) - A General Framework for Gradient-Based Optimization of Superconducting Quantum Circuits using Qubit Discovery as a Case Study [0.19528996680336308]
超伝導量子回路の勾配に基づく最適化のための網羅的な枠組みを提案する。
この枠組みをキュービット発見問題に適用し、優れた性能指標を持つキュービット設計の同定の有効性を実証する。
論文 参考訳(メタデータ) (2024-08-22T19:46:50Z) - Sparks of Quantum Advantage and Rapid Retraining in Machine Learning [0.0]
本研究では、最小パラメータで複雑な関数を表現するために、強力なニューラルネットワークアーキテクチャを最適化する。
高速再トレーニング機能を導入し、古いサンプルを再処理することなく、ネットワークを新しいデータで再トレーニングできるようにする。
量子ハードウェアとアルゴリズム最適化のさらなる進歩により、量子最適化機械学習モデルが幅広い応用をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-22T19:55:44Z) - Hiperwalk: Simulation of Quantum Walks with Heterogeneous High-Performance Computing [0.0]
Hiperwalkは、異種高速コンピューティングを用いた量子ウォークのシミュレーションを容易にするように設計されている。
このパッケージは、連続時間と離散時間の両方の量子ウォークモデルのシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-06-12T13:17:05Z) - Energy-efficient Task Adaptation for NLP Edge Inference Leveraging
Heterogeneous Memory Architectures [68.91874045918112]
Adapter-ALBERTは、様々なタスクにわたる最大データ再利用のための効率的なモデル最適化である。
検証されたNLPエッジアクセラレータ上でシミュレーションを行うことにより、モデルを不均一なオンチップメモリアーキテクチャにマッピングする利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T14:40:59Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Distributed Training and Optimization Of Neural Networks [0.0]
ディープラーニングモデルは、複数の要因のおかげで、ますますパフォーマンスが向上しています。
成功させるために、モデルは多数のパラメータや複雑なアーキテクチャを持ち、大きなデータセットでトレーニングされる。
これにより、コンピューティングリソースに対する大きな要求が生まれ、時間を振り返ることになります。
論文 参考訳(メタデータ) (2020-12-03T11:18:46Z) - Scalable Deep-Learning-Accelerated Topology Optimization for Additively
Manufactured Materials [4.221095652322005]
トポロジー最適化(TO)は、新しい構造、材料、デバイスを設計するための、人気があり強力な計算手法である。
これらの課題に対処するため、SDL-TOと呼ばれる汎用拡張型ディープラーニング(DL)ベースのToフレームワークを提案する。
我々のフレームワークは、反復履歴データを学習し、与えられた設計と勾配のマッピングを同時にトレーニングすることで、TOを加速します。
論文 参考訳(メタデータ) (2020-11-28T17:38:31Z) - Kernel methods through the roof: handling billions of points efficiently [94.31450736250918]
カーネル法は、非パラメトリック学習に対するエレガントで原則化されたアプローチを提供するが、今のところ大規模な問題ではほとんど利用できない。
最近の進歩は、最適化、数値線形代数、ランダム射影など、多くのアルゴリズム的アイデアの利点を示している。
ここでは、これらの取り組みをさらに進めて、GPUハードウェアを最大限に活用する解決器を開発し、テストする。
論文 参考訳(メタデータ) (2020-06-18T08:16:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。