論文の概要: Loss Behavior in Supervised Learning with Entangled States
- arxiv url: http://arxiv.org/abs/2509.10141v1
- Date: Fri, 12 Sep 2025 11:09:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.059851
- Title: Loss Behavior in Supervised Learning with Entangled States
- Title(参考訳): 絡み合った状態を持つ教師付き学習における損失行動
- Authors: Alexander Mandl, Johanna Barzen, Marvin Bechtold, Frank Leymann, Lavinia Stiliadou,
- Abstract要約: 補助システムとの絡み合いは、教師あり学習などの応用におけるQMLモデルの質を高めることが示されている。
最近の研究は、絡み合ったトレーニングサンプルから抽出できる情報と、訓練されたモデルの近似誤差に与える影響に焦点を当てている。
QMLモデルのトレーニング性に関する結果は、トレーニングプロセス自体が教師付き学習タスクの様々な特性に影響されていることを示している。
- 参考スコア(独自算出の注目度): 36.30006416492033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Machine Learning (QML) aims to leverage the principles of quantum mechanics to speed up the process of solving machine learning problems or improve the quality of solutions. Among these principles, entanglement with an auxiliary system was shown to increase the quality of QML models in applications such as supervised learning. Recent works focus on the information that can be extracted from entangled training samples and their effect on the approximation error of the trained model. However, results on the trainability of QML models show that the training process itself is affected by various properties of the supervised learning task. These properties include the circuit structure of the QML model, the used cost function, and noise on the quantum computer. To evaluate the applicability of entanglement in supervised learning, we augment these results by investigating the effect of highly entangled training data on the model's trainability. In this work, we show that for highly expressive models, i.e., models capable of expressing a large number of candidate solutions, the possible improvement of loss function values in constrained neighborhoods during optimization is severely limited when maximally entangled states are employed for training. Furthermore, we support this finding experimentally by simulating training with Parameterized Quantum Circuits (PQCs). Our findings show that as the expressivity of the PQC increases, it becomes more susceptible to loss concentration induced by entangled training data. Lastly, our experiments evaluate the efficacy of non-maximal entanglement in the training samples and highlight the fundamental role of entanglement entropy as a predictor for the trainability.
- Abstract(参考訳): 量子機械学習(QML)は、量子力学の原理を活用して、機械学習の問題を解決するプロセスを高速化したり、ソリューションの品質を向上させることを目的としている。
これらの原則の中で、教師付き学習などの応用において、補助システムとの絡み合いがQMLモデルの質を高めることが示されている。
最近の研究は、絡み合ったトレーニングサンプルから抽出できる情報と、訓練されたモデルの近似誤差に与える影響に焦点を当てている。
しかし、QMLモデルのトレーニング性に関する結果は、トレーニングプロセス自体が教師付き学習タスクの様々な特性に影響されていることを示している。
これらの特性には、QMLモデルの回路構造、使用コスト関数、量子コンピュータ上のノイズが含まれる。
教師あり学習における絡み合いの応用性を評価するため,高度に絡み合ったトレーニングデータがモデルの訓練性に与える影響を検証して,これらの結果を補強する。
本研究では,高表現性モデル,すなわち,多数の候補解を表現可能なモデルにおいて,最大絡み合った状態が訓練に使用される場合,最適化中の制約付き近傍での損失関数値の改善が著しく制限されることを示す。
さらに、パラメータ化量子回路(PQC)によるトレーニングをシミュレーションすることで、この発見を実験的に支援する。
以上の結果から,PQCの発現率が増加するにつれて,絡み合ったトレーニングデータによって引き起こされる損失濃度の影響を受けやすいことが示唆された。
最後に,トレーニングサンプルにおける非最大エンタングルメントの有効性を評価し,トレーニング容易性の予測因子としてのエンタングルメントエントロピーの基本的役割を強調した。
関連論文リスト
- What Makes Low-Bit Quantization-Aware Training Work for Reasoning LLMs? A Systematic Study [59.44848132298657]
ポストトレーニング量子化(PTQ)は通常、特に低ビット設定でのタスクの推論において、大きな精度低下のコストが伴う。
本研究では,推論モデルに対する量子化認識学習(QAT)の体系的研究について述べる。
論文 参考訳(メタデータ) (2026-01-21T11:22:29Z) - Revisiting Entropy in Reinforcement Learning for Large Reasoning Models [54.96908589622163]
検証可能な報酬(RLVR)を用いた強化学習で訓練した大規模言語モデルのエントロピーダイナミクスについて検討する。
以上の結果から,RLVRでトレーニングしたLDMのエントロピーに影響を及ぼす重要な要因として,非政治的更新数,トレーニングデータの多様性,最適化目標におけるクリッピング閾値が示唆された。
論文 参考訳(メタデータ) (2025-11-08T12:50:41Z) - Training Dynamics Impact Post-Training Quantization Robustness [31.536101256063684]
学習後の量子化は、大規模言語モデルの効率的な展開に広く採用されている。
我々は,最大32Bパラメータと15Tトレーニングトークンを含む,オープンソースの言語モデルトレーニングトラジェクトリ間の量子化劣化の包括的解析を行う。
論文 参考訳(メタデータ) (2025-10-07T17:59:07Z) - From Physics to Machine Learning and Back: Part II - Learning and Observational Bias in PHM [52.64097278841485]
物理インフォームドモデリングとデータストラテジーによる学習と観察バイアスの導入は、モデルを物理的に一貫した信頼性のある予測へと導くことができるかを検討する。
メタラーニングや少数ショットラーニングなどの高速適応手法をドメイン一般化手法とともに検討する。
論文 参考訳(メタデータ) (2025-09-25T14:15:43Z) - Learning Density Functionals from Noisy Quantum Data [0.0]
ノイズの多い中間スケール量子(NISQ)デバイスは、機械学習(ML)モデルのトレーニングデータを生成するために使用される。
NISQアルゴリズムの典型的なノイズを受ける小さなデータセットからニューラルネットワークMLモデルをうまく一般化できることを示す。
本研究は,NISQデバイスを実用量子シミュレーションに活用するための有望な経路であることを示唆する。
論文 参考訳(メタデータ) (2024-09-04T17:59:55Z) - Physics-Informed Weakly Supervised Learning for Interatomic Potentials [17.165117198519248]
機械学習型原子間ポテンシャル(MLIP)のトレーニングのための物理インフォームド・弱教師付きアプローチを導入する。
我々は、様々なベースラインモデルとベンチマークデータセットに対して、エネルギーと力の誤差を(しばしば2倍以下に)減らすことを示した。
我々のアプローチは、スパースで高精度なアブ・イニシアチブデータに基づく基礎モデルの微調整を改善する。
論文 参考訳(メタデータ) (2024-07-23T12:49:04Z) - On the relation between trainability and dequantization of variational quantum learning models [1.7999333451993955]
変分量子機械学習(QML)のトレーニング容易性と定式化の関係について検討する。
我々はPQCベースのQMLモデルを構築するためのレシピを紹介した。
しかしながら、我々の研究は、より一般的な構造を見つけるための道のりを指している。
論文 参考訳(メタデータ) (2024-06-11T08:59:20Z) - Enhancing Q-Learning with Large Language Model Heuristics [0.0]
大規模言語モデル(LLM)は、単純なタスクでゼロショット学習を達成できるが、推論速度の低下と時折幻覚に悩まされる。
我々は,LLMを幻覚として活用し,強化学習のためのQ関数の学習を支援するフレームワークであるtextbfLLM-guided Q-learningを提案する。
論文 参考訳(メタデータ) (2024-05-06T10:42:28Z) - Large Language Models are Miscalibrated In-Context Learners [22.30783674111999]
本研究では,学習方法の異なる選択にまたがる行動の詳細な分析を行う。
低リソース環境における全ての学習手法に誤校正問題が存在することを観察する。
最大確率で自己認識を行うことで,ロバストかつ校正された予測が得られることがわかった。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - Do Emergent Abilities Exist in Quantized Large Language Models: An
Empirical Study [90.34226812493083]
本研究の目的は,LLMを小言語モデルと区別する重要な特徴である現象能力に対する量子化の影響を検討することである。
実験により、これらの創発能力は4ビット量子化モデルに残っており、2ビットモデルは深刻な性能劣化に直面していることがわかった。
低ビットモデルの性能向上のために,(1) 部品(またはサブ構造)が量子化に敏感である場合の微視的影響解析,(2) モデル微視化による性能補償の2つの実験を行った。
論文 参考訳(メタデータ) (2023-07-16T15:11:01Z) - Robustness and Generalization Performance of Deep Learning Models on
Cyber-Physical Systems: A Comparative Study [71.84852429039881]
調査は、センサーの故障やノイズなど、様々な摂動を扱うモデルの能力に焦点を当てている。
我々は,これらのモデルの一般化と伝達学習能力を,アウト・オブ・ディストリビューション(OOD)サンプルに公開することによって検証する。
論文 参考訳(メタデータ) (2023-06-13T12:43:59Z) - Pre-training Tensor-Train Networks Facilitates Machine Learning with Variational Quantum Circuits [70.97518416003358]
変分量子回路(VQC)は、ノイズの多い中間スケール量子(NISQ)デバイス上での量子機械学習を約束する。
テンソルトレインネットワーク(TTN)はVQC表現と一般化を向上させることができるが、結果として得られるハイブリッドモデルであるTTN-VQCは、Polyak-Lojasiewicz(PL)条件による最適化の課題に直面している。
この課題を軽減するために,プレトレーニングTTNモデルとVQCを組み合わせたPre+TTN-VQCを導入する。
論文 参考訳(メタデータ) (2023-05-18T03:08:18Z) - Quantum-tailored machine-learning characterization of a superconducting
qubit [50.591267188664666]
我々は,量子デバイスのダイナミクスを特徴付ける手法を開発し,デバイスパラメータを学習する。
このアプローチは、数値的に生成された実験データに基づいてトレーニングされた物理に依存しないリカレントニューラルネットワークより優れている。
このデモンストレーションは、ドメイン知識を活用することで、この特徴付けタスクの正確性と効率が向上することを示す。
論文 参考訳(メタデータ) (2021-06-24T15:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。