論文の概要: On Training Implicit Meta-Learning With Applications to Inductive
Weighing in Consistency Regularization
- arxiv url: http://arxiv.org/abs/2310.18741v1
- Date: Sat, 28 Oct 2023 15:50:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 16:41:21.519634
- Title: On Training Implicit Meta-Learning With Applications to Inductive
Weighing in Consistency Regularization
- Title(参考訳): インダクティブ・ウィーディングによるメタラーニングの指導について : 一貫性規則化への応用
- Authors: Fady Rezk
- Abstract要約: 暗黙的メタラーニング(IML)では、特にヘシアン(Hessian)の計算に2ドル(約2,200円)の勾配を必要とする。
ヘッセンの様々な近似が提案されたが、計算コスト、安定性、解の一般化、推定精度の体系的な比較はほとんど見過ごされてしまった。
本稿では,ドメイン固有の特徴を抽出するために,信頼ネットワークをトレーニングすることで,有用画像のアップウェイトや配布外サンプルのダウンウェイトを学べることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Meta-learning that uses implicit gradient have provided an exciting
alternative to standard techniques which depend on the trajectory of the inner
loop training. Implicit meta-learning (IML), however, require computing
$2^{nd}$ order gradients, particularly the Hessian which is impractical to
compute for modern deep learning models. Various approximations for the Hessian
were proposed but a systematic comparison of their compute cost, stability,
generalization of solution found and estimation accuracy were largely
overlooked. In this study, we start by conducting a systematic comparative
analysis of the various approximation methods and their effect when
incorporated into IML training routines. We establish situations where
catastrophic forgetting is exhibited in IML and explain their cause in terms of
the inability of the approximations to estimate the curvature at convergence
points. Sources of IML training instability are demonstrated and remedied. A
detailed analysis of the effeciency of various inverse Hessian-vector product
approximation methods is also provided. Subsequently, we use the insights
gained to propose and evaluate a novel semi-supervised learning algorithm that
learns to inductively weigh consistency regularization losses. We show how
training a "Confidence Network" to extract domain specific features can learn
to up-weigh useful images and down-weigh out-of-distribution samples. Results
outperform the baseline FixMatch performance.
- Abstract(参考訳): 暗黙の勾配を用いたメタラーニングは、インナーループトレーニングの軌道に依存する標準技術に代わるエキサイティングな代替手段となった。
しかし、IML(Implicit meta-learning)は、現代のディープラーニングモデルでは計算できない2-nd=順序勾配(特にヘッセン)の計算を必要とする。
ヘッセンの様々な近似が提案されたが、計算コスト、安定性、解の一般化、推定精度の体系的な比較はほとんど見落とされた。
本研究は,IMLトレーニングルーチンに組み込んだ各種近似法とその効果の系統的比較分析を行うことから始める。
IMLで破滅的な忘れ物が出現する状況を確立し, 収束点の曲率を推定する近似の不備の観点から, その原因を説明する。
IMLトレーニング不安定の原因を実証し、改善する。
また, 種々の逆ヘッセンベクトル積近似法の有効性の詳細な解析を行った。
その後、得られた知見を用いて、整合性正規化損失を誘導的に重み付けする新しい半教師付き学習アルゴリズムを提案し、評価する。
信頼ネットワーク」を訓練してドメイン固有の特徴を抽出し、有用画像のアップウェイトと配信外サンプルのダウンウェイトを学習する方法を示す。
結果はベースラインのフィクスマッチ性能を上回る。
関連論文リスト
- Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Variational Linearized Laplace Approximation for Bayesian Deep Learning [11.22428369342346]
変分スパースガウス過程(GP)を用いた線形ラプラス近似(LLA)の近似法を提案する。
本手法はGPの2つのRKHSの定式化に基づいており、予測平均として元のDNNの出力を保持する。
効率のよい最適化が可能で、結果としてトレーニングデータセットのサイズのサブ線形トレーニング時間が短縮される。
論文 参考訳(メタデータ) (2023-02-24T10:32:30Z) - Adaptive Meta-learner via Gradient Similarity for Few-shot Text
Classification [11.035878821365149]
本稿では, モデル一般化能力の向上を図るため, 適応型メタラーナをグラディエント類似性(AMGS)を介して提案する。
いくつかのベンチマークによる実験結果から,提案したAMGSは連続的にテキスト分類性能を向上することが示された。
論文 参考訳(メタデータ) (2022-09-10T16:14:53Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Deep learning: a statistical viewpoint [120.94133818355645]
ディープラーニングは、理論的観点からいくつかの大きな驚きを明らかにしました。
特に、簡単な勾配法は、最適でないトレーニング問題に対するほぼ完全な解決策を簡単に見つけます。
我々はこれらの現象を具体的原理で補うと推測する。
論文 参考訳(メタデータ) (2021-03-16T16:26:36Z) - Reintroducing Straight-Through Estimators as Principled Methods for
Stochastic Binary Networks [85.94999581306827]
2重みとアクティベーションを持つニューラルネットワークのトレーニングは、勾配の欠如と離散重みよりも最適化が難しいため、難しい問題である。
多くの実験結果が経験的ストレートスルー(ST)アプローチで達成されている。
同時に、ST法はベルヌーイ重みを持つバイナリネットワーク(SBN)モデルにおける推定子として真に導出することができる。
論文 参考訳(メタデータ) (2020-06-11T23:58:18Z) - Path Sample-Analytic Gradient Estimators for Stochastic Binary Networks [78.76880041670904]
二進的アクティベーションや二進的重みを持つニューラルネットワークでは、勾配降下によるトレーニングは複雑である。
そこで本研究では,サンプリングと解析近似を併用した新しい推定法を提案する。
勾配推定において高い精度を示し、深部畳み込みモデルにおいてより安定かつ優れた訓練を行うことを示す。
論文 参考訳(メタデータ) (2020-06-04T21:51:21Z) - Sparse Methods for Automatic Relevance Determination [0.0]
まず、自動妥当性決定(ARD)について検討し、スパースモデルを実現するために、追加の正規化やしきい値設定の必要性を解析的に実証する。
次に、正規化ベースとしきい値ベースという2つの手法のクラスについて論じる。
論文 参考訳(メタデータ) (2020-05-18T14:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。