論文の概要: Exponentially improved detection and correction of errors in
experimental systems using neural networks
- arxiv url: http://arxiv.org/abs/2005.09119v1
- Date: Mon, 18 May 2020 22:42:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 10:53:49.218250
- Title: Exponentially improved detection and correction of errors in
experimental systems using neural networks
- Title(参考訳): ニューラルネットワークを用いた実験システムにおけるエラー検出と修正の指数論的改善
- Authors: Pascal Kobel, Martin Link and Michael K\"ohl
- Abstract要約: 実験装置の実証モデルを作成するために,2つの機械学習アルゴリズムを導入する。
これにより、一般化最適化タスクに必要な測定回数を指数関数的に削減することができる。
イオントラップ内の成層電場の検出と補償を例に,両アルゴリズムを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the use of two machine learning algorithms to create an
empirical model of an experimental apparatus, which is able to reduce the
number of measurements necessary for generic optimisation tasks exponentially
as compared to unbiased systematic optimisation. Principal Component Analysis
(PCA) can be used to reduce the degrees of freedom in cases for which a
rudimentary model describing the data exists. We further demonstrate the use of
an Artificial Neural Network (ANN) for tasks where a model is not known. This
makes the presented method applicable to a broad range of different
optimisation tasks covering multiple fields of experimental physics. We
demonstrate both algorithms at the example of detecting and compensating stray
electric fields in an ion trap and achieve a successful compensation with an
exponentially reduced amount of data.
- Abstract(参考訳): 本研究では、2つの機械学習アルゴリズムを用いて実験装置の実証モデルを作成し、非バイアスの体系的最適化と比較して指数関数的に汎用最適化タスクに必要な測定回数を減らすことができる。
主成分分析(PCA)は、データを記述する初歩的なモデルが存在する場合の自由度を低減するために用いられる。
さらに,モデルが不明なタスクに対して,ニューラルネットワーク(ANN)を用いることを実証する。
これにより、実験物理学の様々な分野をカバーする様々な最適化タスクに適用できる。
イオントラップにおける成層電場の検出と補償を行い,指数関数的に少ないデータ量で補償を成功させる例として,両アルゴリズムを実演する。
関連論文リスト
- Diffusion models as probabilistic neural operators for recovering unobserved states of dynamical systems [49.2319247825857]
拡散に基づく生成モデルは、ニューラル演算子に好適な多くの特性を示す。
本稿では,複数のタスクに適応可能な単一モデルを,トレーニング中のタスク間で交互に学習することを提案する。
論文 参考訳(メタデータ) (2024-05-11T21:23:55Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets [2.824895388993495]
情報理論AEPに基づく信頼性学習の理論的保証を提供する。
次に、高効率なリカレントニューラルネット(RNN)フレームワークに焦点を当て、少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
実験結果から,学習モデルのサンプル効率,一般化,時間的複雑さを向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-28T17:33:11Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Multigoal-oriented dual-weighted-residual error estimation using deep
neural networks [0.0]
ディープラーニングは、関数を近似する柔軟性の高い強力なツールだと考えられている。
提案手法は,誤差の局所化に付随する問題を解く後続誤差推定法に基づく。
複数のゴール関数に対する後方誤差推定を得るために,効率的で実装が容易なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-21T16:59:44Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Non-Convex Optimization with Spectral Radius Regularization [17.629499015699704]
深層ニューラルネットワークやその他の機械学習モデルのトレーニング中に平坦な最小値を求める正規化手法を開発した。
これらのミニマはシャープミニマよりも一般化し、モデルが実際の単語テストデータによりよく一般化できるようにします。
論文 参考訳(メタデータ) (2021-02-22T17:39:05Z) - A Taylor Based Sampling Scheme for Machine Learning in Computational
Physics [0.0]
数値シミュレーションプログラムを用いてデータを生成する能力を利用して機械学習モデルをより良く訓練する。
通常の微分方程式(ODE)システムの解を学習する際のディープニューラルネットワーク(DNN)の誤差を低減するために、テイラー近似に基づく新しいデータサンプリングスキームを考案した。
論文 参考訳(メタデータ) (2021-01-20T12:56:09Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Neural Control Variates [71.42768823631918]
ニューラルネットワークの集合が、積分のよい近似を見つけるという課題に直面していることを示す。
理論的に最適な分散最小化損失関数を導出し、実際に安定したオンライントレーニングを行うための代替の複合損失を提案する。
具体的には、学習した光場近似が高次バウンスに十分な品質であることを示し、誤差補正を省略し、無視可能な可視バイアスのコストでノイズを劇的に低減できることを示した。
論文 参考訳(メタデータ) (2020-06-02T11:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。