論文の概要: Quantum Machine Learning via Contrastive Training
- arxiv url: http://arxiv.org/abs/2511.13497v1
- Date: Mon, 17 Nov 2025 15:36:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:25.333635
- Title: Quantum Machine Learning via Contrastive Training
- Title(参考訳): コントラストトレーニングによる量子機械学習
- Authors: Liudmila A. Zhukas, Vivian Ni Zhang, Qiang Miao, Qingfeng Wang, Marko Cetina, Jungsang Kim, Lawrence Carin, Christopher Monroe,
- Abstract要約: ラベル付きデータへの依存を減らす量子表現の自己教師付き事前学習を導入する。
我々は,このパラダイムを,プログラム可能なトラップイオン量子コンピュータ上で実装し,画像を量子状態として符号化する。
ラベル付きトレーニングデータに制限があるレギュレータでは、パフォーマンス改善が特に重要である。
- 参考スコア(独自算出の注目度): 12.83661402071417
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum machine learning (QML) has attracted growing interest with the rapid parallel advances in large-scale classical machine learning and quantum technologies. Similar to classical machine learning, QML models also face challenges arising from the scarcity of labeled data, particularly as their scale and complexity increase. Here, we introduce self-supervised pretraining of quantum representations that reduces reliance on labeled data by learning invariances from unlabeled examples. We implement this paradigm on a programmable trapped-ion quantum computer, encoding images as quantum states. In situ contrastive pretraining on hardware yields a representation that, when fine-tuned, classifies image families with higher mean test accuracy and lower run-to-run variability than models trained from random initialization. Performance improvement is especially significant in regimes with limited labeled training data. We show that the learned invariances generalize beyond the pretraining image samples. Unlike prior work, our pipeline derives similarity from measured quantum overlaps and executes all training and classification stages on hardware. These results establish a label-efficient route to quantum representation learning, with direct relevance to quantum-native datasets and a clear path to larger classical inputs.
- Abstract(参考訳): 量子機械学習(QML)は、大規模古典的機械学習と量子技術における急激な並列化の進展によって、関心が高まりつつある。
古典的な機械学習と同様に、QMLモデルはラベル付きデータの不足から生じる課題にも直面する。
ここでは、ラベルのない例から不変性を学ぶことによってラベル付きデータへの依存を減らす量子表現の自己教師付き事前学習を導入する。
我々は,このパラダイムを,プログラム可能なトラップイオン量子コンピュータ上で実装し,画像を量子状態として符号化する。
In situ contrastive pretraining on hardwareは、微調整された場合には、ランダム初期化からトレーニングしたモデルよりも、平均テスト精度が高く、実行時の可変性が低いイメージファミリを分類する。
ラベル付きトレーニングデータに制限があるレギュレータでは、パフォーマンス改善が特に重要である。
学習された不変性は、事前学習画像サンプルを超えて一般化されることを示す。
以前の作業とは異なり、我々のパイプラインは測定された量子オーバーラップから類似性を導き、ハードウェア上のすべてのトレーニングおよび分類ステージを実行する。
これらの結果は、量子表現学習へのラベル効率の高い経路を確立し、量子ネイティブなデータセットに直接関連し、より大規模な古典的な入力への明確な経路を定めている。
関連論文リスト
- Typical Machine Learning Datasets as Low-Depth Quantum Circuits [0.04654705430482874]
我々は,従来の画像データを量子状態としてロードする低深度量子回路を見つけるための効率的なアルゴリズムを開発した。
我々は,MNIST,Fashion-MNIST,CIFAR-10,Imagenetteデータセットについて系統的研究を行った。
論文 参考訳(メタデータ) (2025-05-06T10:27:51Z) - An Efficient Quantum Classifier Based on Hamiltonian Representations [50.467930253994155]
量子機械学習(QML)は、量子コンピューティングの利点をデータ駆動タスクに移行しようとする分野である。
入力をパウリ弦の有限集合にマッピングすることで、データ符号化に伴うコストを回避できる効率的な手法を提案する。
我々は、古典的および量子モデルに対して、テキストおよび画像分類タスクに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2025-04-13T11:49:53Z) - Efficient Learning for Linear Properties of Bounded-Gate Quantum Circuits [62.46800898243033]
量子学習理論の最近の進歩は、様々な古典的な入力によって生成された測定データから、大きな量子ビット回路の線形特性を効率的に学習できるのか?
我々は、小さな予測誤差を達成するためには、$d$で線形にスケーリングするサンプルの複雑さが必要であることを証明し、それに対応する計算複雑性は、dで指数関数的にスケールする可能性がある。
そこで本研究では,古典的影と三角展開を利用したカーネルベースの手法を提案し,予測精度と計算オーバーヘッドとのトレードオフを制御可能とした。
論文 参考訳(メタデータ) (2024-08-22T08:21:28Z) - Quantum Active Learning [3.3202982522589934]
量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
QALはモデルを効果的にトレーニングし、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
我々は,QALがランダムサンプリングベースラインに乗じて負の結果を微妙な数値実験により解明する。
論文 参考訳(メタデータ) (2024-05-28T14:39:54Z) - Exponential Quantum Communication Advantage in Distributed Inference and Learning [19.827903766111987]
本稿では,量子ネットワーク上で分散計算を行うフレームワークを提案する。
このフレームワーク内のモデルでは、指数的に少ない通信で勾配勾配を用いた推論と訓練を行うことができることを示す。
また、このクラスのモデルが入力の高非線形特徴を符号化できることを示し、その表現性はモデル深度とともに指数関数的に増加することを示した。
論文 参考訳(メタデータ) (2023-10-11T02:19:50Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z) - Generation of High-Resolution Handwritten Digits with an Ion-Trap
Quantum Computer [55.41644538483948]
本稿では, 量子回路に基づく生成モデルを構築し, 生成逆数ネットワークの事前分布を学習し, サンプル化する。
我々は、このハイブリッドアルゴリズムを171ドルのYb$+$ ion qubitsに基づいてイオントラップデバイスでトレーニングし、高品質な画像を生成する。
論文 参考訳(メタデータ) (2020-12-07T18:51:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。