論文の概要: Noether Networks: Meta-Learning Useful Conserved Quantities
- arxiv url: http://arxiv.org/abs/2112.03321v1
- Date: Mon, 6 Dec 2021 19:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:50:05.725122
- Title: Noether Networks: Meta-Learning Useful Conserved Quantities
- Title(参考訳): Noether Networks: メタラーニングで有用な保存量
- Authors: Ferran Alet, Dylan Doblar, Allan Zhou, Joshua Tenenbaum, Kenji
Kawaguchi, Chelsea Finn
- Abstract要約: メタ学習型保存損失を予測関数内で最適化する新しいタイプのアーキテクチャであるNoether Networksを提案する。
理論的および実験的に、ネーターネットワークは予測品質を改善し、逐次問題における帰納的バイアスを発見するための一般的な枠組みを提供する。
- 参考スコア(独自算出の注目度): 46.88551280525578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Progress in machine learning (ML) stems from a combination of data
availability, computational resources, and an appropriate encoding of inductive
biases. Useful biases often exploit symmetries in the prediction problem, such
as convolutional networks relying on translation equivariance. Automatically
discovering these useful symmetries holds the potential to greatly improve the
performance of ML systems, but still remains a challenge. In this work, we
focus on sequential prediction problems and take inspiration from Noether's
theorem to reduce the problem of finding inductive biases to meta-learning
useful conserved quantities. We propose Noether Networks: a new type of
architecture where a meta-learned conservation loss is optimized inside the
prediction function. We show, theoretically and experimentally, that Noether
Networks improve prediction quality, providing a general framework for
discovering inductive biases in sequential problems.
- Abstract(参考訳): 機械学習(ML)の進歩は、データの可用性、計算資源、帰納バイアスの適切なエンコーディングの組み合わせに由来する。
有用なバイアスはしばしば、翻訳の等価性に依存する畳み込みネットワークのような予測問題における対称性を利用する。
これらの有用な対称性を自動的に発見することは、MLシステムの性能を大幅に向上させる可能性があるが、依然として課題である。
本研究では,逐次予測問題に着目し,ネーターの定理から着想を得て,帰納的バイアスを求める問題をメタラーニングに有用な量に削減する。
メタ学習型保存損失を予測関数内で最適化する新しいタイプのアーキテクチャであるNoether Networksを提案する。
理論的および実験的に、ネーターネットワークは予測品質を改善し、逐次問題における帰納バイアスを発見するための一般的な枠組みを提供する。
関連論文リスト
- Error Feedback under $(L_0,L_1)$-Smoothness: Normalization and Momentum [56.37522020675243]
機械学習の幅広い問題にまたがる正規化誤差フィードバックアルゴリズムに対する収束の最初の証明を提供する。
提案手法では,許容可能なステップサイズが大きくなったため,新しい正規化エラーフィードバックアルゴリズムは,各種タスクにおける非正規化エラーよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T10:19:27Z) - Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model [38.79241114146971]
本稿では、量子位相の分類を訓練したニューラルネットワークの予測において、解釈可能性の手法が信頼を高める方法を示す。
特に, 複雑な分類問題において, 分配外分布の一般化を確実にできることを示す。
この研究は,解釈可能性手法の体系的利用が,科学的問題におけるNNの性能をいかに向上させるかを示す一例である。
論文 参考訳(メタデータ) (2024-06-14T13:24:32Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - GIT: Detecting Uncertainty, Out-Of-Distribution and Adversarial Samples
using Gradients and Invariance Transformations [77.34726150561087]
本稿では,ディープニューラルネットワークにおける一般化誤差検出のための総合的アプローチを提案する。
GITは勾配情報と不変変換の利用を組み合わせる。
本実験は,各種ネットワークアーキテクチャの最先端技術と比較して,GITの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-07-05T22:04:38Z) - Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets [2.824895388993495]
情報理論AEPに基づく信頼性学習の理論的保証を提供する。
次に、高効率なリカレントニューラルネット(RNN)フレームワークに焦点を当て、少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
実験結果から,学習モデルのサンプル効率,一般化,時間的複雑さを向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-28T17:33:11Z) - Tailoring: encoding inductive biases by optimizing unsupervised
objectives at prediction time [34.03150701567508]
主目的関数に補助的損失を加えることは、ネットワークがより良い表現を学ぶのに役立つバイアスを符号化する一般的な方法である。
この研究では、テキスト変換学習からインスピレーションを得て、入力を受け取った後、教師なしの損失に対してネットワークを微調整することができることに注意する。
メタ学習に類似したネスト最適化であるメタ調整を定式化し、教師なしの損失を用いてタスク目標に順応した後、モデルに順応するように訓練する。
論文 参考訳(メタデータ) (2020-09-22T15:26:24Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。