論文の概要: Training Multilayer Perceptrons by Sampling with Quantum Annealers
- arxiv url: http://arxiv.org/abs/2303.12352v1
- Date: Wed, 22 Mar 2023 07:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:01:09.636091
- Title: Training Multilayer Perceptrons by Sampling with Quantum Annealers
- Title(参考訳): 量子アニールを用いた多層パーセプトロンの訓練
- Authors: Frances Fengyi Yang and Michele Sasdelli and Tat-Jun Chin
- Abstract要約: 視覚応用のための多くのニューラルネットワークはフィードフォワード構造である。
バックプロパゲーションは現在、教師あり学習のための訓練に最も効果的なテクニックである。
- 参考スコア(独自算出の注目度): 38.046974698940545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A successful application of quantum annealing to machine learning is training
restricted Boltzmann machines (RBM). However, many neural networks for vision
applications are feedforward structures, such as multilayer perceptrons (MLP).
Backpropagation is currently the most effective technique to train MLPs for
supervised learning. This paper aims to be forward-looking by exploring the
training of MLPs using quantum annealers. We exploit an equivalence between
MLPs and energy-based models (EBM), which are a variation of RBMs with a
maximum conditional likelihood objective. This leads to a strategy to train
MLPs with quantum annealers as a sampling engine. We prove our setup for MLPs
with sigmoid activation functions and one hidden layer, and demonstrated
training of binary image classifiers on small subsets of the MNIST and
Fashion-MNIST datasets using the D-Wave quantum annealer. Although problem
sizes that are feasible on current annealers are limited, we obtained
comprehensive results on feasible instances that validate our ideas. Our work
establishes the potential of quantum computing for training MLPs.
- Abstract(参考訳): 量子アニーリングの機械学習への成功例としては、制限ボルツマンマシン(rbm)の訓練がある。
しかし、視覚応用のための多くのニューラルネットワークは、多層パーセプトロン(MLP)のようなフィードフォワード構造である。
バックプロパゲーションは現在、教師あり学習のためにMDPを訓練する最も効果的な手法である。
本稿では,量子アニールを用いたMLPのトレーニングを前方視することを目的とする。
我々は,最大条件付き確率目標のrbmの変動であるmlpとエネルギーベースモデル(ebm)の等価性を利用する。
これにより、サンプリングエンジンとして量子アニールを用いてMLPをトレーニングする戦略が導かれる。
我々は、sgmoidアクティベーション関数と1つの隠れ層を持つmlpのセットアップを証明し、d-wave quantum annealerを用いたmnistおよびfashion-mnistデータセットの小さなサブセット上のバイナリイメージ分類器のトレーニングを実証した。
現在のアニーラーで実現可能な問題のサイズは限られているが、我々のアイデアを検証する実行可能なインスタンスに関する総合的な結果を得た。
我々の研究は、MLPのトレーニングのための量子コンピューティングの可能性を確立する。
関連論文リスト
- Leveraging Pre-Trained Neural Networks to Enhance Machine Learning with Variational Quantum Circuits [48.33631905972908]
我々は、事前学習されたニューラルネットワークを用いて変分量子回路(VQC)を強化する革新的なアプローチを導入する。
この手法は近似誤差をキュービット数から効果的に分離し、制約条件の必要性を除去する。
我々の結果はヒトゲノム解析などの応用にまで拡張され、我々のアプローチの幅広い適用性を示している。
論文 参考訳(メタデータ) (2024-11-13T12:03:39Z) - KANQAS: Kolmogorov-Arnold Network for Quantum Architecture Search [0.0]
量子状態準備と量子化学におけるコルモゴロフ・アルノルドネットワーク(KAN)の実用性を評価する。
量子状態の準備において、我々の結果は、ノイズのないシナリオにおいて、マルチキュービットの最大絡み合う状態を生成する最適量子回路構成の確率は、マルチレイア知覚(MLP)よりも2〜5倍高いことを示している。
量子化学問題に対処するために,従来の構造ではなく,KAN(Curriculum Reinforcement Learning)とKAN構造を統合することで,最近提案されたQASアルゴリズムを強化する。
論文 参考訳(メタデータ) (2024-06-25T15:17:01Z) - Active learning of Boltzmann samplers and potential energies with quantum mechanical accuracy [1.7633275579210346]
我々は,強化サンプリングと深層生成モデルを組み合わせるアプローチと,機械学習ポテンシャルの能動的学習を併用したアプローチを開発する。
本手法を用いて, 医療・生物学分野における多種多様なシステム群に属する超小型の銀ナノクラスターの異性化について検討する。
論文 参考訳(メタデータ) (2024-01-29T19:01:31Z) - QKSAN: A Quantum Kernel Self-Attention Network [53.96779043113156]
量子カーネル法(Quantum Kernel Methods, QKM)のデータ表現能力とSAMの効率的な情報抽出能力を組み合わせた量子カーネル自己認識機構(Quantum Kernel Self-Attention Mechanism, QKSAM)を導入する。
量子カーネル自己保持ネットワーク(QKSAN)フレームワークは,DMP(Dederred Measurement Principle)と条件測定技術を巧みに組み込んだQKSAMに基づいて提案されている。
4つのQKSANサブモデルはPennyLaneとIBM Qiskitプラットフォームにデプロイされ、MNISTとFashion MNISTのバイナリ分類を実行する。
論文 参考訳(メタデータ) (2023-08-25T15:08:19Z) - NTK-approximating MLP Fusion for Efficient Language Model Fine-tuning [40.994306592119266]
訓練済みの言語モデル(PLM)を微調整することは、多くの自然言語処理アプリケーションにおいて主要な戦略として現れる。
いくつかの一般的なアプローチ(量子化や蒸留など)は、PLM微細チューニングの計算/メモリを減らすために広く研究されている。
我々は、NTK近似モジュールを融合して軽量PLMを作成することを提案する。
論文 参考訳(メタデータ) (2023-07-18T03:12:51Z) - PreQuant: A Task-agnostic Quantization Approach for Pre-trained Language
Models [52.09865918265002]
ファインチューニングのフレームワークPreQuantに先立って,新しい量子化を提案する。
PreQuantは様々な量子化戦略と互換性があり、インダクションされた量子化誤差を修正するために、アウタリア対応の微調整が組み込まれている。
BERT,RoBERTa,T5を用いたGLUEベンチマークにおけるPreQuantの有効性を示す。
論文 参考訳(メタデータ) (2023-05-30T08:41:33Z) - Visual Simulation Software Demonstration for Quantum Multi-Drone
Reinforcement Learning [14.299752746509348]
本稿では,自律型マルチドローンシステムを制御する新しいQMARLアルゴリズムのための視覚シミュレーションソフトウェアフレームワークを提案する。
提案するQMARLフレームワークは,従来のMARLよりもトレーニング可能なパラメータが少なく,適切な報酬収束とサービス品質性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T06:08:24Z) - Decomposition of Matrix Product States into Shallow Quantum Circuits [62.5210028594015]
テンソルネットワーク(TN)アルゴリズムは、パラメタライズド量子回路(PQC)にマッピングできる
本稿では,現実的な量子回路を用いてTN状態を近似する新しいプロトコルを提案する。
その結果、量子回路の逐次的な成長と最適化を含む1つの特定のプロトコルが、他の全ての手法より優れていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-01T17:08:41Z) - Quantum Multi-Agent Meta Reinforcement Learning [22.17932723673392]
量子ニューラルネットワーク(QNN)の特徴に基づくマルチエージェント強化学習を再設計する。
本稿では,まず量子メタMARL(QM2ARL)を提案する。
論文 参考訳(メタデータ) (2022-08-22T22:46:52Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。