論文の概要: Data-Centric Machine Learning in Quantum Information Science
- arxiv url: http://arxiv.org/abs/2201.09134v1
- Date: Sat, 22 Jan 2022 21:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 04:28:44.453135
- Title: Data-Centric Machine Learning in Quantum Information Science
- Title(参考訳): 量子情報科学におけるデータ中心機械学習
- Authors: Sanjaya Lohani, Joseph M. Lukens, Ryan T. Glasser, Thomas A. Searles,
Brian T. Kirby
- Abstract要約: 特に、トレーニングセットのシステマティックエンジニアリングが、事前学習されたニューラルネットワークの精度を大幅に向上させる方法について考察する。
目標シナリオの予測分布と正確に一致するようにトレーニングセットを設計することが必ずしも最適ではないことを示し、その代わりに、トレーニングセットを目標よりもわずかに混合することにより、パフォーマンスをさらに向上できることを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a series of data-centric heuristics for improving the performance
of machine learning systems when applied to problems in quantum information
science. In particular, we consider how systematic engineering of training sets
can significantly enhance the accuracy of pre-trained neural networks used for
quantum state reconstruction without altering the underlying architecture. We
find that it is not always optimal to engineer training sets to exactly match
the expected distribution of a target scenario, and instead, performance can be
further improved by biasing the training set to be slightly more mixed than the
target. This is due to the heterogeneity in the number of free variables
required to describe states of different purity, and as a result, overall
accuracy of the network improves when training sets of a fixed size focus on
states with the least constrained free variables. For further clarity, we also
include a "toy model" demonstration of how spurious correlations can
inadvertently enter synthetic data sets used for training, how the performance
of systems trained with these correlations can degrade dramatically, and how
the inclusion of even relatively few counterexamples can effectively remedy
such problems.
- Abstract(参考訳): 量子情報科学における問題に適用した場合,機械学習システムの性能向上のための一連のデータ中心ヒューリスティックスを提案する。
特に,トレーニングセットの系統的設計は,基礎となるアーキテクチャを変更することなく,量子状態再構成に使用される事前学習ニューラルネットワークの精度を著しく向上させる。
目標シナリオの予測分布に正確に一致するようにトレーニングセットを設計することが常に最適であるわけではなく、その代わりに、トレーニングセットをターゲットよりもわずかに混合することにより、パフォーマンスをさらに向上することができる。
これは、異なる純度の状態を記述するのに必要な自由変数の数の不均一性のためであり、結果として、固定サイズのトレーニングセットが最小の制約付き自由変数を持つ状態に焦点を合わせると、ネットワーク全体の精度が向上する。
より明確にするために、トレーニングに使用する合成データセットを不注意に入力できるスプリアス相関の「トイモデル」、これらの相関でトレーニングされたシステムのパフォーマンスが劇的に低下する可能性、そして、比較的少ない反例を含むことで、そのような問題を効果的に解決できる方法のデモンストレーションも含んでいる。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Analyzing the Performance of Deep Encoder-Decoder Networks as Surrogates
for a Diffusion Equation [0.0]
本研究では,エンコーダ・デコーダ畳み込みニューラルネットワーク(CNN)を定常拡散解法の代用として利用することを検討した。
その結果,トレーニングセットのサイズが大きくなると,性能変動や全体的な誤差の低減に大きく影響することが示唆された。
論文 参考訳(メタデータ) (2023-02-07T22:53:19Z) - Efficient Augmentation for Imbalanced Deep Learning [8.38844520504124]
本研究では、畳み込みニューラルネットワークの内部表現である不均衡画像データについて検討する。
モデルの特徴埋め込みとテストセットの一般化ギャップを測定し、マイノリティクラスではそのギャップが広いことを示す。
この洞察により、不均衡なデータのための効率的な3相CNNトレーニングフレームワークを設計できる。
論文 参考訳(メタデータ) (2022-07-13T09:43:17Z) - ClusterQ: Semantic Feature Distribution Alignment for Data-Free
Quantization [111.12063632743013]
本稿では,ClusterQと呼ばれるデータフリーな量子化手法を提案する。
意味的特徴のクラス間分離性を高めるために,特徴分布統計をクラスタ化し,整列する。
また、クラス内分散を組み込んで、クラスワイドモードの崩壊を解決する。
論文 参考訳(メタデータ) (2022-04-30T06:58:56Z) - Privacy-preserving machine learning with tensor networks [50.591267188664666]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Benchmarking quantum tomography completeness and fidelity with machine
learning [0.0]
我々は畳み込みニューラルネットワークを訓練し、ある測定セットが情報的に完全であるかどうかを予測し、任意の量子状態を事前情報なしで一意に再構築する。
ネットワークは、その忠実さと情報完全性に対する信頼性の高い尺度を認識するために訓練される。
論文 参考訳(メタデータ) (2021-03-02T07:30:32Z) - Using Data Assimilation to Train a Hybrid Forecast System that Combines
Machine-Learning and Knowledge-Based Components [52.77024349608834]
利用可能なデータがノイズの多い部分測定の場合,カオスダイナミクスシステムのデータ支援予測の問題を検討する。
動的システムの状態の部分的測定を用いることで、不完全な知識ベースモデルによる予測を改善するために機械学習モデルを訓練できることを示す。
論文 参考訳(メタデータ) (2021-02-15T19:56:48Z) - A probabilistic generative model for semi-supervised training of
coarse-grained surrogates and enforcing physical constraints through virtual
observables [3.8073142980733]
本稿では、トレーニング目的と代理モデル自体の両方において、物理的構造と情報を考慮した柔軟な確率的フレームワークを提供する。
我々は、物理から得られる等式を仮想観測可能なものとして導入し、その可能性を通じて追加情報を提供する確率論的モデルを提案する。
論文 参考訳(メタデータ) (2020-06-02T17:14:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。