論文の概要: Data-Centric Machine Learning in Quantum Information Science
- arxiv url: http://arxiv.org/abs/2201.09134v1
- Date: Sat, 22 Jan 2022 21:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 04:28:44.453135
- Title: Data-Centric Machine Learning in Quantum Information Science
- Title(参考訳): 量子情報科学におけるデータ中心機械学習
- Authors: Sanjaya Lohani, Joseph M. Lukens, Ryan T. Glasser, Thomas A. Searles,
Brian T. Kirby
- Abstract要約: 特に、トレーニングセットのシステマティックエンジニアリングが、事前学習されたニューラルネットワークの精度を大幅に向上させる方法について考察する。
目標シナリオの予測分布と正確に一致するようにトレーニングセットを設計することが必ずしも最適ではないことを示し、その代わりに、トレーニングセットを目標よりもわずかに混合することにより、パフォーマンスをさらに向上できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a series of data-centric heuristics for improving the performance
of machine learning systems when applied to problems in quantum information
science. In particular, we consider how systematic engineering of training sets
can significantly enhance the accuracy of pre-trained neural networks used for
quantum state reconstruction without altering the underlying architecture. We
find that it is not always optimal to engineer training sets to exactly match
the expected distribution of a target scenario, and instead, performance can be
further improved by biasing the training set to be slightly more mixed than the
target. This is due to the heterogeneity in the number of free variables
required to describe states of different purity, and as a result, overall
accuracy of the network improves when training sets of a fixed size focus on
states with the least constrained free variables. For further clarity, we also
include a "toy model" demonstration of how spurious correlations can
inadvertently enter synthetic data sets used for training, how the performance
of systems trained with these correlations can degrade dramatically, and how
the inclusion of even relatively few counterexamples can effectively remedy
such problems.
- Abstract(参考訳): 量子情報科学における問題に適用した場合,機械学習システムの性能向上のための一連のデータ中心ヒューリスティックスを提案する。
特に,トレーニングセットの系統的設計は,基礎となるアーキテクチャを変更することなく,量子状態再構成に使用される事前学習ニューラルネットワークの精度を著しく向上させる。
目標シナリオの予測分布に正確に一致するようにトレーニングセットを設計することが常に最適であるわけではなく、その代わりに、トレーニングセットをターゲットよりもわずかに混合することにより、パフォーマンスをさらに向上することができる。
これは、異なる純度の状態を記述するのに必要な自由変数の数の不均一性のためであり、結果として、固定サイズのトレーニングセットが最小の制約付き自由変数を持つ状態に焦点を合わせると、ネットワーク全体の精度が向上する。
より明確にするために、トレーニングに使用する合成データセットを不注意に入力できるスプリアス相関の「トイモデル」、これらの相関でトレーニングされたシステムのパフォーマンスが劇的に低下する可能性、そして、比較的少ない反例を含むことで、そのような問題を効果的に解決できる方法のデモンストレーションも含んでいる。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - Sobolev neural network with residual weighting as a surrogate in linear and non-linear mechanics [0.0]
本稿では、感度情報を含むトレーニングプロセスの改善について検討する。
計算力学では、トレーニング損失関数を拡張することにより、ニューラルネットワークに感性を適用することができる。
この改善は、線形および非線形な材料挙動の2つの例で示される。
論文 参考訳(メタデータ) (2024-07-23T13:28:07Z) - Optimal design of experiments in the context of machine-learning inter-atomic potentials: improving the efficiency and transferability of kernel based methods [0.7234862895932991]
原子間相互作用のデータ駆動機械学習(ML)モデルは、原子配列のニュアンスな側面をエネルギーと力の予測に関連付けることができる。
主な課題は、化学環境のディスクリプタが、よく明確に定義された連続計量のない高次元の物体であるという事実に起因している。
実験の統計的計画と最適設計の古典的な概念は、そのような問題を比較的低い計算コストで緩和するのに役立つことを実証する。
論文 参考訳(メタデータ) (2024-05-14T14:14:23Z) - A didactic approach to quantum machine learning with a single qubit [68.8204255655161]
我々は、データ再ロード技術を用いて、単一のキュービットで学習するケースに焦点を当てる。
我々は、Qiskit量子コンピューティングSDKを用いて、おもちゃと現実世界のデータセットに異なる定式化を実装した。
論文 参考訳(メタデータ) (2022-11-23T18:25:32Z) - Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - ClusterQ: Semantic Feature Distribution Alignment for Data-Free
Quantization [111.12063632743013]
本稿では,ClusterQと呼ばれるデータフリーな量子化手法を提案する。
意味的特徴のクラス間分離性を高めるために,特徴分布統計をクラスタ化し,整列する。
また、クラス内分散を組み込んで、クラスワイドモードの崩壊を解決する。
論文 参考訳(メタデータ) (2022-04-30T06:58:56Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Benchmarking quantum tomography completeness and fidelity with machine
learning [0.0]
我々は畳み込みニューラルネットワークを訓練し、ある測定セットが情報的に完全であるかどうかを予測し、任意の量子状態を事前情報なしで一意に再構築する。
ネットワークは、その忠実さと情報完全性に対する信頼性の高い尺度を認識するために訓練される。
論文 参考訳(メタデータ) (2021-03-02T07:30:32Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。