論文の概要: Dataset Distillation for Quantum Neural Networks
- arxiv url: http://arxiv.org/abs/2503.17935v2
- Date: Tue, 25 Mar 2025 02:31:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 10:44:02.926897
- Title: Dataset Distillation for Quantum Neural Networks
- Title(参考訳): 量子ニューラルネットワークのためのデータセット蒸留
- Authors: Koustubh Phalak, Junde Li, Swaroop Ghosh,
- Abstract要約: 大量の古典的データに対する量子ニューラルネットワーク(QNN)のトレーニングには時間と費用がかかる。
我々は,QNNのParametric Quantum Circuit(PQC)において,残差接続とトレーニング可能なHermitianObservableを含む古典的LeNetモデルの量子変種を用いる。
このアプローチは、元のデータと同等のパフォーマンスで、非常に情報に富むが、少数のトレーニングデータをもたらす。
- 参考スコア(独自算出の注目度): 3.481985817302898
- License:
- Abstract: Training Quantum Neural Networks (QNNs) on large amount of classical data can be both time consuming as well as expensive. Higher amount of training data would require higher number of gradient descent steps to reach convergence. This, in turn would imply that the QNN will require higher number of quantum executions, thereby driving up its overall execution cost. In this work, we propose performing the dataset distillation process for QNNs, where we use a novel quantum variant of classical LeNet model containing residual connection and trainable Hermitian observable in the Parametric Quantum Circuit (PQC) of the QNN. This approach yields highly informative yet small number of training data at similar performance as the original data. We perform distillation for MNIST and Cifar-10 datasets, and on comparison with classical models observe that both the datasets yield reasonably similar post-inferencing accuracy on quantum LeNet (91.9% MNIST, 50.3% Cifar-10) compared to classical LeNet (94% MNIST, 54% Cifar-10). We also introduce a non-trainable Hermitian for ensuring stability in the distillation process and note marginal reduction of up to 1.8% (1.3%) for MNIST (Cifar-10) dataset.
- Abstract(参考訳): 大量の古典的データに対する量子ニューラルネットワーク(QNN)のトレーニングには時間と費用がかかる。
トレーニングデータの量が増えれば、収束に達するためには、より多くの勾配降下ステップが必要になる。
このことは、QNNがより多くの量子実行を必要とし、それによって全体の実行コストを上昇させることを意味する。
そこで我々は,QNNのParametric Quantum Circuit(PQC)において,残差接続とトレーニング可能なHermitianオブザーバブルを含む古典的LeNetモデルの新しい量子変種を用いて,QNNのデータセット蒸留プロセスを実行することを提案する。
このアプローチは、元のデータと同等のパフォーマンスで、非常に情報に富むが、少数のトレーニングデータをもたらす。
我々は、MNISTとCifar-10データセットの蒸留を行い、古典的なモデルと比較すると、どちらのデータセットも量子LeNet(91.9% MNIST, 50.3% Cifar-10)と古典的なLeNet(94% MNIST, 54% Cifar-10)と比較して、合理的に類似している。
また,MNIST(Cifar-10)データセットに対して,蒸留プロセスの安定性と限界値の最大1.8% (1.3%) の減少を保証するための非トレーニング可能なエルミタンも導入した。
関連論文リスト
- Neural quantum embedding via deterministic quantum computation with one qubit [3.360317485898423]
1量子ビット(DQC1)を用いた決定論的量子計算に基づくニューラル量子埋め込み(NQE)手法を提案する。
NQEは、古典データの異なるカテゴリに対応する量子状態間のトレース距離を最大化するためにニューラルネットワークを訓練する。
我々は、NQE-DQC1プロトコルが拡張可能であることを示し、NQEトレーニングにNMRシステムを使用することを可能にした。
論文 参考訳(メタデータ) (2025-01-26T01:33:46Z) - SQUAT: Stateful Quantization-Aware Training in Recurrent Spiking Neural Networks [1.0923877073891446]
スパイキングニューラルネットワーク(SNN)は効率を向上させるという目標を共有しているが、ニューラルネットワーク推論の消費電力を減らすために、"イベント駆動"アプローチを採用する。
本稿では, ステートフルニューロンに対するQAT方式として, (i) 均一量子化戦略, (ii) 重み量子化の確立された方法, (ii) しきい値中心量子化の2つを紹介する。
以上の結果から,発火閾値付近の量子化レベルの密度の増加は,複数のベンチマークデータセットの精度を向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T03:07:16Z) - Coherent Feed Forward Quantum Neural Network [2.1178416840822027]
量子ニューラルネットワーク(QNN)に焦点をあてた量子機械学習は、いまだに膨大な研究分野である。
適応可能な中間層とノードの観点から,従来のFFNNの汎用性とシームレスに整合するボナフェイドQNNモデルを提案する。
本研究では,診断乳がん(Wisconsin)やクレジットカード不正検出データセットなど,さまざまなベンチマークデータセットを用いて提案モデルを検証した。
論文 参考訳(メタデータ) (2024-02-01T15:13:26Z) - A Quantum Optical Recurrent Neural Network for Online Processing of
Quantum Times Series [0.7087237546722617]
量子光リカレントニューラルネットワーク(QORNN)は,量子チャネルの伝送速度を高めることができることを示す。
また、同モデルが不要であれば、同様のメモリ効果に対処できることも示している。
我々は、この最後のタスクの小さなバージョンをフォトニックプロセッサのBorealis上で実行します。
論文 参考訳(メタデータ) (2023-05-31T19:19:25Z) - Post-training Model Quantization Using GANs for Synthetic Data
Generation [57.40733249681334]
量子化法における実データを用いたキャリブレーションの代用として合成データを用いた場合について検討する。
本稿では,StyleGAN2-ADAが生成したデータと事前学習したDiStyleGANを用いて定量化したモデルの性能と,実データを用いた量子化とフラクタル画像に基づく代替データ生成手法との比較を行った。
論文 参考訳(メタデータ) (2023-05-10T11:10:09Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Q-ASR: Integer-only Zero-shot Quantization for Efficient Speech
Recognition [65.7040645560855]
ASRモデルに対する整数のみのゼロショット量子化スキームであるQ-ASRを提案する。
全精度ベースラインモデルと比較すると,wrの変化は無視できる。
Q-ASRは、WER劣化が少ない4倍以上の圧縮率を示します。
論文 参考訳(メタデータ) (2021-03-31T06:05:40Z) - Toward Trainability of Quantum Neural Networks [87.04438831673063]
量子ニューラルネットワーク(QNN)は、量子スピードアップを達成するために古典的ニューラルネットワークの一般化として提案されている。
QNNのトレーニングには、入力キュービット数に指数関数的に勾配速度がなくなるため、非常に大きなボトルネックが存在する。
木テンソルとステップ制御された構造を持つQNNを二分分類に適用し,ランダムな構造を持つQNNと比較してより高速な収束率と精度を示す。
論文 参考訳(メタデータ) (2020-11-12T08:32:04Z) - Absence of Barren Plateaus in Quantum Convolutional Neural Networks [0.0]
量子畳み込みニューラルネットワーク(QCNN)が提案されている。
我々はQCNNアーキテクチャのパラメータの勾配スケーリングを厳格に分析する。
論文 参考訳(メタデータ) (2020-11-05T16:46:13Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - ZeroQ: A Novel Zero Shot Quantization Framework [83.63606876854168]
量子化は、ニューラルネットワークの推論時間とメモリフットプリントを削減するための有望なアプローチである。
既存のゼロショット量子化法では、異なるエポックを用いてこの問題に対処するが、性能は低下する。
本稿では,この問題に対処する新しいゼロショット量子化フレームワークであるZeroQを提案する。
論文 参考訳(メタデータ) (2020-01-01T23:58:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。