論文の概要: Noether Networks: Meta-Learning Useful Conserved Quantities
- arxiv url: http://arxiv.org/abs/2112.03321v1
- Date: Mon, 6 Dec 2021 19:27:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 13:50:05.725122
- Title: Noether Networks: Meta-Learning Useful Conserved Quantities
- Title(参考訳): Noether Networks: メタラーニングで有用な保存量
- Authors: Ferran Alet, Dylan Doblar, Allan Zhou, Joshua Tenenbaum, Kenji
Kawaguchi, Chelsea Finn
- Abstract要約: メタ学習型保存損失を予測関数内で最適化する新しいタイプのアーキテクチャであるNoether Networksを提案する。
理論的および実験的に、ネーターネットワークは予測品質を改善し、逐次問題における帰納的バイアスを発見するための一般的な枠組みを提供する。
- 参考スコア(独自算出の注目度): 46.88551280525578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Progress in machine learning (ML) stems from a combination of data
availability, computational resources, and an appropriate encoding of inductive
biases. Useful biases often exploit symmetries in the prediction problem, such
as convolutional networks relying on translation equivariance. Automatically
discovering these useful symmetries holds the potential to greatly improve the
performance of ML systems, but still remains a challenge. In this work, we
focus on sequential prediction problems and take inspiration from Noether's
theorem to reduce the problem of finding inductive biases to meta-learning
useful conserved quantities. We propose Noether Networks: a new type of
architecture where a meta-learned conservation loss is optimized inside the
prediction function. We show, theoretically and experimentally, that Noether
Networks improve prediction quality, providing a general framework for
discovering inductive biases in sequential problems.
- Abstract(参考訳): 機械学習(ML)の進歩は、データの可用性、計算資源、帰納バイアスの適切なエンコーディングの組み合わせに由来する。
有用なバイアスはしばしば、翻訳の等価性に依存する畳み込みネットワークのような予測問題における対称性を利用する。
これらの有用な対称性を自動的に発見することは、MLシステムの性能を大幅に向上させる可能性があるが、依然として課題である。
本研究では,逐次予測問題に着目し,ネーターの定理から着想を得て,帰納的バイアスを求める問題をメタラーニングに有用な量に削減する。
メタ学習型保存損失を予測関数内で最適化する新しいタイプのアーキテクチャであるNoether Networksを提案する。
理論的および実験的に、ネーターネットワークは予測品質を改善し、逐次問題における帰納バイアスを発見するための一般的な枠組みを提供する。
関連論文リスト
- On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Deep Neural Networks Tend To Extrapolate Predictably [56.04573160453392]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - GIT: Detecting Uncertainty, Out-Of-Distribution and Adversarial Samples
using Gradients and Invariance Transformations [77.34726150561087]
本稿では,ディープニューラルネットワークにおける一般化誤差検出のための総合的アプローチを提案する。
GITは勾配情報と不変変換の利用を組み合わせる。
本実験は,各種ネットワークアーキテクチャの最先端技術と比較して,GITの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-07-05T22:04:38Z) - Less is More: Rethinking Few-Shot Learning and Recurrent Neural Nets [2.824895388993495]
情報理論AEPに基づく信頼性学習の理論的保証を提供する。
次に、高効率なリカレントニューラルネット(RNN)フレームワークに焦点を当て、少数ショット学習のための縮小エントロピーアルゴリズムを提案する。
実験結果から,学習モデルのサンプル効率,一般化,時間的複雑さを向上する可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-28T17:33:11Z) - Learning Invariant Weights in Neural Networks [16.127299898156203]
機械学習でよく使われるモデルの多くは、データ内の特定の対称性を尊重することを制約している。
本稿では,ニューラルネットワークにおける不変性学習の限界値の最小化により,このアプローチに準ずる重み空間を提案する。
論文 参考訳(メタデータ) (2022-02-25T00:17:09Z) - Tailoring: encoding inductive biases by optimizing unsupervised
objectives at prediction time [34.03150701567508]
主目的関数に補助的損失を加えることは、ネットワークがより良い表現を学ぶのに役立つバイアスを符号化する一般的な方法である。
この研究では、テキスト変換学習からインスピレーションを得て、入力を受け取った後、教師なしの損失に対してネットワークを微調整することができることに注意する。
メタ学習に類似したネスト最適化であるメタ調整を定式化し、教師なしの損失を用いてタスク目標に順応した後、モデルに順応するように訓練する。
論文 参考訳(メタデータ) (2020-09-22T15:26:24Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。