論文の概要: Shot Optimization in Quantum Machine Learning Architectures to
Accelerate Training
- arxiv url: http://arxiv.org/abs/2304.12950v1
- Date: Fri, 21 Apr 2023 14:38:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 19:57:24.978330
- Title: Shot Optimization in Quantum Machine Learning Architectures to
Accelerate Training
- Title(参考訳): 量子機械学習アーキテクチャにおけるショット最適化によるトレーニングの高速化
- Authors: Koustubh Phalak, Swaroop Ghosh
- Abstract要約: 本稿では,QMLモデルに対するショット最適化手法を提案する。
我々はMNISTデータセットとFMNISTデータセットのテストケースとして、ハイブリッド量子古典QMLモデルを用いて分類タスクを使用する。
- 参考スコア(独自算出の注目度): 5.444459446244819
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we propose shot optimization method for QML models at the
expense of minimal impact on model performance. We use classification task as a
test case for MNIST and FMNIST datasets using a hybrid quantum-classical QML
model. First, we sweep the number of shots for short and full versions of the
dataset. We observe that training the full version provides 5-6% higher testing
accuracy than short version of dataset with up to 10X higher number of shots
for training. Therefore, one can reduce the dataset size to accelerate the
training time. Next, we propose adaptive shot allocation on short version
dataset to optimize the number of shots over training epochs and evaluate the
impact on classification accuracy. We use a (a) linear function where the
number of shots reduce linearly with epochs, and (b) step function where the
number of shots reduce in step with epochs. We note around 0.01 increase in
loss and around 4% (1%) reduction in testing accuracy for reduction in shots by
up to 100X (10X) for linear (step) shot function compared to conventional
constant shot function for MNIST dataset, and 0.05 increase in loss and around
5-7% (5-7%) reduction in testing accuracy with similar reduction in shots using
linear (step) shot function on FMNIST dataset. For comparison, we also use the
proposed shot optimization methods to perform ground state energy estimation of
different molecules and observe that step function gives the best and most
stable ground state energy prediction at 1000X less number of shots.
- Abstract(参考訳): 本稿では,モデル性能への影響を最小限に抑えて,qmlモデルのショット最適化手法を提案する。
分類タスクをmnistとfmnistのデータセットのテストケースとして,ハイブリッド量子古典qmlモデルを用いた。
まず、データセットのショートバージョンとフルバージョンのショット数を最大化します。
フルバージョンのトレーニングでは、トレーニング用のショット数が最大10倍の短いバージョンのデータセットよりも、5~6%高いテスト精度が提供されます。
そのため、データセットのサイズを縮小してトレーニング時間を短縮することができる。
次に,ショートバージョンデータセットのアダプティブショットアロケーションを提案し,訓練エポックにおけるショット数を最適化し,分類精度への影響を評価する。
使用します。
(a)ショット数がエポックとともに直線的に減少する直線関数、
b) ショット数がエポックのステップで減少するステップ関数。
我々は,従来のmnistデータセットの定ショット関数と比較して,最大100倍(10倍)のリニアショット関数によるショット削減の精度が0.01(1%)程度,損失が0.05(5~7%)程度向上し,fmnistデータセットのリニア(ステップ)ショット関数を用いたテスト精度が約5.7%(5~7%)低下していることに注意した。
比較のために,提案するショット最適化法を用いて異なる分子の基底状態エネルギー推定を行い,ステップ関数が1000倍のショット数で最良かつ最も安定な基底状態エネルギー予測を与えることを観測する。
関連論文リスト
- Robust Fine-tuning of Zero-shot Models via Variance Reduction [56.360865951192324]
微調整ゼロショットモデルの場合、このデシドラトゥムは細調整モデルで、分布内(ID)と分布外(OOD)の両方で優れる。
トレードオフを伴わずに最適なIDとOODの精度を同時に達成できるサンプルワイズアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2024-11-11T13:13:39Z) - Active Prompt Tuning Enables Gpt-40 To Do Efficient Classification Of Microscopy Images [0.0]
顕微鏡画像中の細胞の特徴を分類する従来のディープラーニングベースの手法は、トレーニングモデルに時間と労働集約的なプロセスを必要とする。
我々は以前、パイロットデータセット上でOpenAIのGPT-4(V)モデルを使用してこれらの課題を克服するソリューションを提案した。
パイロットデータセットの結果は精度が同等で、ベースラインに比べてスループットが大幅に向上した。
論文 参考訳(メタデータ) (2024-11-04T21:56:48Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Efficient Grammatical Error Correction Via Multi-Task Training and
Optimized Training Schedule [55.08778142798106]
原文と修正文のアライメントを利用する補助タスクを提案する。
我々は,各タスクをシーケンス・ツー・シーケンス問題として定式化し,マルチタスク・トレーニングを行う。
トレーニングに使用されるデータセットの順序や、データセット内の個々のインスタンスでさえ、最終的なパフォーマンスに重要な影響を与える可能性があることが分かりました。
論文 参考訳(メタデータ) (2023-11-20T14:50:12Z) - On minimizing the training set fill distance in machine learning regression [0.552480439325792]
本研究では,選択した集合の充填距離を最小化することを目的としたデータ選択手法を提案する。
FPSを用いてトレーニングセットを選択することで、ガウスカーネル回帰アプローチの特定の場合のモデルの安定性を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-20T16:18:33Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Improving Zero-shot Generalization and Robustness of Multi-modal Models [70.14692320804178]
CLIPやLiTのようなマルチモーダルな画像テキストモデルは、画像分類ベンチマークで顕著な性能を示している。
本研究は,この性能差の原因を考察し,テキストプロンプトの曖昧さによる障害事例の多くが原因であることを示す。
本稿では,WordNet階層を用いて,不確実な画像の精度を向上させるための簡易かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-12-04T07:26:24Z) - Efficient Offline Policy Optimization with a Learned Model [83.64779942889916]
MuZero Unpluggedはログデータからオフラインポリシー学習に有望なアプローチを提供する。
MCTS(Monte-Carlo Tree Search)を学習モデルで実行し、Reanalyzeアルゴリズムを利用してオフラインデータから純粋に学習する。
本稿では,オフライン設定下では MuZero Unplugged がうまく動作しないという仮説について検討する。
論文 参考訳(メタデータ) (2022-10-12T07:41:04Z) - Dataset Distillation with Infinitely Wide Convolutional Networks [18.837952916998947]
分散カーネルをベースとしたメタラーニングフレームワークを用いて,データセット蒸留の最先端結果を実現する。
CIFAR-10画像分類タスクでは64%以上のテスト精度が得られた。
我々の現状は、MNIST、Fashion-MNIST、CIFAR-10、CIFAR-100、SVHNの他の多くの設定にも及んでいる。
論文 参考訳(メタデータ) (2021-07-27T18:31:42Z) - Semi-Supervised Learning for Sparsely-Labeled Sequential Data:
Application to Healthcare Video Processing [0.8312466807725921]
逐次データにおける事象検出性能を向上させるための半教師付き機械学習学習戦略を提案する。
本手法では, 事象検出モデルの訓練に, 事象の終了時刻の雑音予測を用いる。
我々は,MNISTの平均精度が12ポイント,CIFARが3.5ポイント,保守的評価が12ポイント向上していることを示す。
論文 参考訳(メタデータ) (2020-11-28T09:54:44Z) - Software-Level Accuracy Using Stochastic Computing With
Charge-Trap-Flash Based Weight Matrix [2.580765958706854]
チャージトラップフラッシュ(CTF)メモリは飽和前に大量のレベルを持つが、非線形性は変化しない。
シミュレーションにより、最適範囲の選択において、我々のシステムは正確な浮動小数点演算を用いて訓練されたモデルとほぼ同等の性能を示すことを示す。
また,Q-Learningにおける価値関数近似に使用される強化学習にも応用し,約146ステップでマウンテンカー制御問題を完成させる。
論文 参考訳(メタデータ) (2020-03-09T02:45:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。