論文の概要: Meta Hamiltonian Learning
- arxiv url: http://arxiv.org/abs/2104.04453v1
- Date: Fri, 9 Apr 2021 16:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 07:44:41.041716
- Title: Meta Hamiltonian Learning
- Title(参考訳): メタハミルトン学習
- Authors: Przemyslaw Bienias, Alireza Seif, Mohammad Hafezi
- Abstract要約: 我々はメタラーニングとして知られる機械学習技術を用いて、このタスクのより効率的なドリフトを学習する。
メタ最適化器は,テストサンプルの平均損失において,他の最適化手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficient characterization of quantum devices is a significant challenge
critical for the development of large scale quantum computers. We consider an
experimentally motivated situation, in which we have a decent estimate of the
Hamiltonian, and its parameters need to be characterized and fine-tuned
frequently to combat drifting experimental variables. We use a machine learning
technique known as meta-learning to learn a more efficient optimizer for this
task. We consider training with the nearest-neighbor Ising model and study the
trained model's generalizability to other Hamiltonian models and larger system
sizes. We observe that the meta-optimizer outperforms other optimization
methods in average loss over test samples. This advantage follows from the
meta-optimizer being less likely to get stuck in local minima, which highly
skews the distribution of the final loss of the other optimizers. In general,
meta-learning decreases the number of calls to the experiment and reduces the
needed classical computational resources.
- Abstract(参考訳): 量子デバイスの効率的なキャラクタリゼーションは、大規模量子コンピュータの開発において重要な課題である。
我々は,ハミルトニアンを適切に推定する実験的な動機付けの状況を考え,そのパラメータを,漂流する実験変数と闘うために頻繁に調整する必要がある。
我々はメタ学習として知られる機械学習技術を用いて、このタスクのより効率的な最適化方法を学ぶ。
近距離イジングモデルを用いたトレーニングを検討し,他のハミルトニアモデルに対するトレーニングモデルの一般化可能性とシステムサイズについて検討した。
メタ最適化器は,テストサンプルの平均損失において,他の最適化手法よりも優れていた。
この利点は、メタオプティマイザが局所的なミニマで立ち往生しにくく、他のオプティマイザの最終損失の分布を非常に歪めているためである。
一般に、メタラーニングは実験への呼び出し数を減らし、必要な古典的な計算資源を減らす。
関連論文リスト
- Prototype Optimization with Neural ODE for Few-Shot Learning [41.743442773121444]
FewShot Learningは、いくつかの例で新しいクラスを認識することを目的としている。
データ不足のため、平均ベースのプロトタイプは通常バイアスを受けます。
そこで本研究では,プロトタイプを最適化するメタ最適化手法を導入することで,プロトタイプを修正できる新しいプロトタイプ最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-19T06:17:25Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Metamizer: a versatile neural optimizer for fast and accurate physics simulations [4.717325308876749]
本稿では,広範囲の物理システムを高精度で反復的に解く,新しいニューラルネットワークであるMetamizerを紹介する。
我々は,メタマイザがディープラーニングに基づくアプローチにおいて,前例のない精度で達成できることを実証した。
以上の結果から,メタミザーは将来の数値解法に大きな影響を与える可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-10T11:54:31Z) - AdaLomo: Low-memory Optimization with Adaptive Learning Rate [59.64965955386855]
大規模言語モデルに対する適応学習率(AdaLomo)を用いた低メモリ最適化を提案する。
AdaLomoはAdamWと同等の結果を得ると同時に、メモリ要件を大幅に削減し、大きな言語モデルをトレーニングするためのハードウェア障壁を低くする。
論文 参考訳(メタデータ) (2023-10-16T09:04:28Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Unsupervised Learning for Combinatorial Optimization Needs Meta-Learning [14.86600327306136]
最適化のための教師なし学習(CO)の一般的なフレームワークは、出力がCOの目的を直接最適化することで問題解決をもたらすニューラルネットワーク(NN)を訓練することである。
本研究では,COにおける教師なし学習の新たな目的について提案する。この学習の目的は,直接的な解決策を与えるのではなく,将来の問題インスタンスの優れた初期化を探すことである。
微調整前のモデルが与える初期解だけでも, 様々な評価条件下では, ベースラインを著しく上回る結果が得られます。
論文 参考訳(メタデータ) (2023-01-08T22:14:59Z) - Precision Machine Learning [5.15188009671301]
様々な関数近似法を比較し,パラメータやデータの増加とともにスケールする方法について検討する。
ニューラルネットワークは、しばしば高次元の例において古典的近似法より優れていることが判明した。
我々は,ニューラルネットワークを極端に低損失に訓練する訓練手法を開発した。
論文 参考訳(メタデータ) (2022-10-24T17:58:30Z) - Learning to Optimize Quasi-Newton Methods [22.504971951262004]
本稿では、最適化時に最適な事前条件をオンラインで学習するLODOと呼ばれる新しい機械学習を提案する。
他のL2Oメソッドとは異なり、LODOはトレーニングタスクの配布にメタトレーニングを一切必要としない。
この勾配は, 雑音場における逆 Hessian を近似し, 幅広い逆 Hessian を表現可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:47:14Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。