論文の概要: Bit-bit encoding, optimizer-free training and sub-net initialization: techniques for scalable quantum machine learning
- arxiv url: http://arxiv.org/abs/2501.02148v1
- Date: Sat, 04 Jan 2025 00:35:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:06:50.304554
- Title: Bit-bit encoding, optimizer-free training and sub-net initialization: techniques for scalable quantum machine learning
- Title(参考訳): ビットビット符号化、オプティマイザフリートレーニング、サブネット初期化:スケーラブル量子機械学習のための技術
- Authors: Sonika Johri,
- Abstract要約: 入力と出力の両方をバイナリ文字列としてエンコードする量子分類器を提案する。
1つのパラメータが一度に更新されると、古典的な最小値を用いることなく変動量子回路を訓練できることが示される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Quantum machine learning for classical data is currently perceived to have a scalability problem due to (i) a bottleneck at the point of loading data into quantum states, (ii) the lack of clarity around good optimization strategies, and (iii) barren plateaus that occur when the model parameters are randomly initialized. In this work, we propose techniques to address all of these issues. First, we present a quantum classifier that encodes both the input and the output as binary strings which results in a model that has no restrictions on expressivity over the encoded data but requires fast classical compression of typical high-dimensional datasets to only the most predictive degrees of freedom. Second, we show that if one parameter is updated at a time, variational quantum circuits can be trained without using a classical optimizer in a way that guarantees convergence to a local minimum, something not possible for classical deep learning models. Third, we propose a parameter initialization strategy called sub-net initialization to avoid barren plateaus where smaller models, trained on more compactly encoded data with fewer qubits, are used to initialize models that utilize more qubits. Along with theoretical arguments on efficacy, we demonstrate the combined performance of these methods on subsets of the MNIST dataset for models with an all-to-all connected architecture that use up to 16 qubits in simulation. This allows us to conclude that the loss function consistently decreases as the capability of the model, measured by the number of parameters and qubits, increases, and this behavior is maintained for datasets of varying complexity. Together, these techniques offer a coherent framework for scalable quantum machine learning.
- Abstract(参考訳): 古典的データに対する量子機械学習は、現在スケーラビリティに問題があると認識されている。
i) 量子状態にデータをロードする時点でのボトルネック。
(二)優れた最適化戦略に関する明確さの欠如、及び
三 モデルパラメータがランダムに初期化されたときに発生する不毛の台地
本研究では,これらの問題に対処する手法を提案する。
まず、入力と出力の両方をバイナリ文字列としてエンコードする量子分類器について、符号化されたデータに対する表現性に制約がないが、最も予測可能な自由度にのみ、典型的な高次元データセットの高速な古典的圧縮を必要とするモデルを提案する。
第二に、あるパラメータが一度に更新されると、局所的な最小値への収束を保証する方法で、古典的なオプティマイザを使わずに変動量子回路を訓練できることが示される。
第3に、よりコンパクトに符号化されたより少ない量子ビットで訓練されたより小さなモデルを用いて、より多くの量子ビットを利用するモデルを初期化するために、サブネット初期化(sub-net initialization)と呼ばれるパラメータ初期化戦略を提案する。
有効性に関する理論的議論とともに、シミュレーションで最大16量子ビットを使用する全接続アーキテクチャを持つモデルに対するMNISTデータセットのサブセット上でのこれらの手法の複合性能を実証する。
これにより、パラメータ数やキュービット数によって測定されるモデルの性能が増大するにつれて、損失関数は一貫して減少し、この挙動は複雑さの異なるデータセットに対して維持される。
これらのテクニックは、スケーラブルな量子機械学習のためのコヒーレントなフレームワークを提供する。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Patch-Based End-to-End Quantum Learning Network for Reduction and Classification of Classical Data [0.22099217573031676]
ノイズの多い中間スケール量子(NISQ)時代には、量子デコヒーレンス、クロストーク、不完全校正による誤差により、量子ビットの制御が制限される。
量子ネットワークによって処理される場合,画像などの大規模古典データのサイズを小さくする必要がある。
本稿では、このようなデータ削減を回避するために、古典的な注意機構を持つ動的パッチベースの量子ドメインデータ削減ネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T16:58:02Z) - Enhancing the performance of Variational Quantum Classifiers with hybrid autoencoders [0.0]
本稿では,特定の量子埋め込みを考慮し,与えられたデータセットの次元性を低減する方法を提案する。
この方法は、VQCを用いた量子機械学習をより汎用的で高次元のデータセットに効果的にすることを目的としている。
論文 参考訳(メタデータ) (2024-09-05T08:51:20Z) - $ζ$-QVAE: A Quantum Variational Autoencoder utilizing Regularized Mixed-state Latent Representations [1.0687104237121408]
短期量子コンピューティングにおける大きな課題は、量子ハードウェアリソースの不足による大規模な実世界のデータセットへの適用である。
古典的VAEのすべての機能を含む完全量子フレームワークである$zeta$-QVAEを提示する。
この結果から, $zeta$-QVAE は古典モデルとよく似た性能を示した。
論文 参考訳(メタデータ) (2024-02-27T18:37:01Z) - NUPES : Non-Uniform Post-Training Quantization via Power Exponent Search [7.971065005161565]
量子化は浮動小数点表現を低ビット幅の固定点表現に変換する技術である。
量子化空間全体にわたって新しい量子化重みを学習する方法を示す。
本研究では,データフリーとデータ駆動の両構成において,最先端の圧縮率を実現する手法の有効性を示す。
論文 参考訳(メタデータ) (2023-08-10T14:19:58Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - ClusterQ: Semantic Feature Distribution Alignment for Data-Free
Quantization [111.12063632743013]
本稿では,ClusterQと呼ばれるデータフリーな量子化手法を提案する。
意味的特徴のクラス間分離性を高めるために,特徴分布統計をクラスタ化し,整列する。
また、クラス内分散を組み込んで、クラスワイドモードの崩壊を解決する。
論文 参考訳(メタデータ) (2022-04-30T06:58:56Z) - ECQ$^{\text{x}}$: Explainability-Driven Quantization for Low-Bit and
Sparse DNNs [13.446502051609036]
我々はディープニューラルネットワーク(DNN)のための新しい量子化パラダイムを開発し、記述する。
本手法は,説明可能なAI(XAI)の概念と情報理論の概念を活用する。
最終的な目標は、最高の情報内容の量子化クラスタにおいて、最も関連性の高い重みを維持することである。
論文 参考訳(メタデータ) (2021-09-09T12:57:06Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。