論文の概要: Can we learn gradients by Hamiltonian Neural Networks?
- arxiv url: http://arxiv.org/abs/2111.00565v1
- Date: Sun, 31 Oct 2021 18:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-03 07:16:49.859369
- Title: Can we learn gradients by Hamiltonian Neural Networks?
- Title(参考訳): ハミルトンニューラルネットワークによる勾配学習は可能か?
- Authors: Aleksandr Timofeev, Andrei Afonin, Yehao Liu
- Abstract要約: 本稿では,勾配を学習するODEニューラルネットワークに基づくメタラーナを提案する。
提案手法は,LLUアクティベーションを最適化したMLMとMNISTデータセットにおいて,LSTMに基づくメタラーナーよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this work, we propose a meta-learner based on ODE neural networks that
learns gradients. This approach makes the optimizer is more flexible inducing
an automatic inductive bias to the given task. Using the simplest Hamiltonian
Neural Network we demonstrate that our method outperforms a meta-learner based
on LSTM for an artificial task and the MNIST dataset with ReLU activations in
the optimizee. Furthermore, it also surpasses the classic optimization methods
for the artificial task and achieves comparable results for MNIST.
- Abstract(参考訳): 本研究では,ODEニューラルネットワークに基づくメタラーナを提案し,勾配を学習する。
このアプローチにより、オプティマイザは与えられたタスクに対する自動帰納バイアスを誘導するよりも柔軟になる。
最も単純なハミルトニアンニューラルネットワークを用いて,人工タスクのためのlstmと最適化されたreluアクティベーションを持つmnistデータセットに基づくメタリーナーよりも優れることを示す。
さらに、人工タスクの古典的な最適化手法を超越し、MNISTに匹敵する結果を得る。
関連論文リスト
- Use Your INSTINCT: INSTruction optimization for LLMs usIng Neural bandits Coupled with Transformers [66.823588073584]
大規模言語モデル (LLM) は命令追従能力に優れ、様々なアプリケーションで優れた性能を発揮している。
最近の研究は、ブラックボックスLLMに与えられる命令を自動的に最適化するために、クエリ効率のよいベイズ最適化(BO)アルゴリズムを用いている。
NNサロゲートによりBOのGPを置換し,ブラックボックスLLMの命令を最適化するニューラルバンディットアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T02:01:16Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Towards Theoretically Inspired Neural Initialization Optimization [66.04735385415427]
我々は,ニューラルネットワークの初期状態を評価するための理論的知見を備えた,GradCosineという微分可能な量を提案する。
標準制約下でGradCosineを最大化することにより、ネットワークのトレーニングとテストの両方の性能を向上させることができることを示す。
サンプル分析から実際のバッチ設定に一般化されたNIOは、無視可能なコストで、より優れた初期化を自動で探すことができる。
論文 参考訳(メタデータ) (2022-10-12T06:49:16Z) - Training Neural Networks using SAT solvers [1.0152838128195465]
本稿では,SATソルバを用いてニューラルネットワークのトレーニングを行うグローバル最適化手法を提案する。
実験では,パリティ学習などのタスクにおいて,ADAMオプティマイザに対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2022-06-10T01:31:12Z) - An alternative approach to train neural networks using monotone
variational inequality [22.320632565424745]
本稿では,モノトーンベクトル場を用いたニューラルネットワークトレーニングの代替手法を提案する。
我々のアプローチは、事前訓練されたニューラルネットワークのより効率的な微調整に利用できる。
論文 参考訳(メタデータ) (2022-02-17T19:24:20Z) - Meta-learning Spiking Neural Networks with Surrogate Gradient Descent [1.90365714903665]
メタ学習のような二段階学習は、制限を克服するためにディープラーニングでますます使われている。
我々は,MAMLを用いたSNNのメタトレーニングが,イベントベースメタデータ上でMAMLでトレーニングされた従来のANNのパフォーマンスを上回ることを示す。
本研究では,メタラーニング技術が,実世界の問題にニューロモルフィック学習技術の展開にどのように役立つかを強調した。
論文 参考訳(メタデータ) (2022-01-26T06:53:46Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。