論文の概要: Loss Behavior in Supervised Learning with Entangled States
- arxiv url: http://arxiv.org/abs/2509.10141v1
- Date: Fri, 12 Sep 2025 11:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.059851
- Title: Loss Behavior in Supervised Learning with Entangled States
- Title(参考訳): 絡み合った状態を持つ教師付き学習における損失行動
- Authors: Alexander Mandl, Johanna Barzen, Marvin Bechtold, Frank Leymann, Lavinia Stiliadou,
- Abstract要約: 補助システムとの絡み合いは、教師あり学習などの応用におけるQMLモデルの質を高めることが示されている。
最近の研究は、絡み合ったトレーニングサンプルから抽出できる情報と、訓練されたモデルの近似誤差に与える影響に焦点を当てている。
QMLモデルのトレーニング性に関する結果は、トレーニングプロセス自体が教師付き学習タスクの様々な特性に影響されていることを示している。
- 参考スコア(独自算出の注目度): 36.30006416492033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) aims to leverage the principles of quantum mechanics to speed up the process of solving machine learning problems or improve the quality of solutions. Among these principles, entanglement with an auxiliary system was shown to increase the quality of QML models in applications such as supervised learning. Recent works focus on the information that can be extracted from entangled training samples and their effect on the approximation error of the trained model. However, results on the trainability of QML models show that the training process itself is affected by various properties of the supervised learning task. These properties include the circuit structure of the QML model, the used cost function, and noise on the quantum computer. To evaluate the applicability of entanglement in supervised learning, we augment these results by investigating the effect of highly entangled training data on the model's trainability. In this work, we show that for highly expressive models, i.e., models capable of expressing a large number of candidate solutions, the possible improvement of loss function values in constrained neighborhoods during optimization is severely limited when maximally entangled states are employed for training. Furthermore, we support this finding experimentally by simulating training with Parameterized Quantum Circuits (PQCs). Our findings show that as the expressivity of the PQC increases, it becomes more susceptible to loss concentration induced by entangled training data. Lastly, our experiments evaluate the efficacy of non-maximal entanglement in the training samples and highlight the fundamental role of entanglement entropy as a predictor for the trainability.
- Abstract(参考訳): 量子機械学習(QML)は、量子力学の原理を活用して、機械学習の問題を解決するプロセスを高速化したり、ソリューションの品質を向上させることを目的としている。
これらの原則の中で、教師付き学習などの応用において、補助システムとの絡み合いがQMLモデルの質を高めることが示されている。
最近の研究は、絡み合ったトレーニングサンプルから抽出できる情報と、訓練されたモデルの近似誤差に与える影響に焦点を当てている。
しかし、QMLモデルのトレーニング性に関する結果は、トレーニングプロセス自体が教師付き学習タスクの様々な特性に影響されていることを示している。
これらの特性には、QMLモデルの回路構造、使用コスト関数、量子コンピュータ上のノイズが含まれる。
教師あり学習における絡み合いの応用性を評価するため,高度に絡み合ったトレーニングデータがモデルの訓練性に与える影響を検証して,これらの結果を補強する。
本研究では,高表現性モデル,すなわち,多数の候補解を表現可能なモデルにおいて,最大絡み合った状態が訓練に使用される場合,最適化中の制約付き近傍での損失関数値の改善が著しく制限されることを示す。
さらに、パラメータ化量子回路(PQC)によるトレーニングをシミュレーションすることで、この発見を実験的に支援する。
以上の結果から,PQCの発現率が増加するにつれて,絡み合ったトレーニングデータによって引き起こされる損失濃度の影響を受けやすいことが示唆された。
最後に,トレーニングサンプルにおける非最大エンタングルメントの有効性を評価し,トレーニング容易性の予測因子としてのエンタングルメントエントロピーの基本的役割を強調した。
関連論文リスト
- Learning Density Functionals from Noisy Quantum Data [0.0]
ノイズの多い中間スケール量子(NISQ)デバイスは、機械学習(ML)モデルのトレーニングデータを生成するために使用される。
NISQアルゴリズムの典型的なノイズを受ける小さなデータセットからニューラルネットワークMLモデルをうまく一般化できることを示す。
本研究は,NISQデバイスを実用量子シミュレーションに活用するための有望な経路であることを示唆する。
論文 参考訳(メタデータ) (2024-09-04T17:59:55Z) - Physics-Informed Weakly Supervised Learning for Interatomic Potentials [17.165117198519248]
機械学習型原子間ポテンシャル(MLIP)のトレーニングのための物理インフォームド・弱教師付きアプローチを導入する。
我々は、様々なベースラインモデルとベンチマークデータセットに対して、エネルギーと力の誤差を(しばしば2倍以下に)減らすことを示した。
我々のアプローチは、スパースで高精度なアブ・イニシアチブデータに基づく基礎モデルの微調整を改善する。
論文 参考訳(メタデータ) (2024-07-23T12:49:04Z) - On the relation between trainability and dequantization of variational quantum learning models [1.7999333451993955]
変分量子機械学習(QML)のトレーニング容易性と定式化の関係について検討する。
我々はPQCベースのQMLモデルを構築するためのレシピを紹介した。
しかしながら、我々の研究は、より一般的な構造を見つけるための道のりを指している。
論文 参考訳(メタデータ) (2024-06-11T08:59:20Z) - Enhancing Q-Learning with Large Language Model Heuristics [0.0]
大規模言語モデル(LLM)は、単純なタスクでゼロショット学習を達成できるが、推論速度の低下と時折幻覚に悩まされる。
我々は,LLMを幻覚として活用し,強化学習のためのQ関数の学習を支援するフレームワークであるtextbfLLM-guided Q-learningを提案する。
論文 参考訳(メタデータ) (2024-05-06T10:42:28Z) - Large Language Models are Miscalibrated In-Context Learners [22.30783674111999]
本研究では,学習方法の異なる選択にまたがる行動の詳細な分析を行う。
低リソース環境における全ての学習手法に誤校正問題が存在することを観察する。
最大確率で自己認識を行うことで,ロバストかつ校正された予測が得られることがわかった。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - Do Emergent Abilities Exist in Quantized Large Language Models: An
Empirical Study [90.34226812493083]
本研究の目的は,LLMを小言語モデルと区別する重要な特徴である現象能力に対する量子化の影響を検討することである。
実験により、これらの創発能力は4ビット量子化モデルに残っており、2ビットモデルは深刻な性能劣化に直面していることがわかった。
低ビットモデルの性能向上のために,(1) 部品(またはサブ構造)が量子化に敏感である場合の微視的影響解析,(2) モデル微視化による性能補償の2つの実験を行った。
論文 参考訳(メタデータ) (2023-07-16T15:11:01Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。