論文の概要: Learning from Matured Dumb Teacher for Fine Generalization
- arxiv url: http://arxiv.org/abs/2108.05776v1
- Date: Thu, 12 Aug 2021 14:37:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 20:28:26.963592
- Title: Learning from Matured Dumb Teacher for Fine Generalization
- Title(参考訳): ファインジェネライゼーションのための熟達したダンプ先生からの学び
- Authors: HeeSeung Jung, Kangil Kim, Hoyong Kim and Jong-Hun Shin
- Abstract要約: ランダムで、訓練されていない、均等に構成された教師ネットワークは、一般化性能を大幅に向上させることができることを示す。
そこで我々は,学習者の一般化仮説を,学習情報の大量破壊を伴わずに保守的に伝達する,成熟した愚かな教師に基づくKDを提案する。
- 参考スコア(独自算出の注目度): 0.6079137591620588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The flexibility of decision boundaries in neural networks that are unguided
by training data is a well-known problem typically resolved with generalization
methods. A surprising result from recent knowledge distillation (KD) literature
is that random, untrained, and equally structured teacher networks can also
vastly improve generalization performance. It raises the possibility of
existence of undiscovered assumptions useful for generalization on an uncertain
region. In this paper, we shed light on the assumptions by analyzing decision
boundaries and confidence distributions of both simple and KD-based
generalization methods. Assuming that a decision boundary exists to represent
the most general tendency of distinction on an input sample space (i.e., the
simplest hypothesis), we show the various limitations of methods when using the
hypothesis. To resolve these limitations, we propose matured dumb teacher based
KD, conservatively transferring the hypothesis for generalization of the
student without massive destruction of trained information. In practical
experiments on feed-forward and convolution neural networks for image
classification tasks on MNIST, CIFAR-10, and CIFAR-100 datasets, the proposed
method shows stable improvement to the best test performance in the grid search
of hyperparameters. The analysis and results imply that the proposed method can
provide finer generalization than existing methods.
- Abstract(参考訳): トレーニングデータによって誘導されないニューラルネットワークにおける決定境界の柔軟性は、一般化法で通常解決されるよく知られた問題である。
近年の知識蒸留(KD)文献の驚くべき結果は、ランダムで、訓練されていない、均等に構造化された教師ネットワークが、一般化性能を大幅に向上させることができることである。
これは不確実領域の一般化に有用な未発見の仮定の存在の可能性を高める。
本稿では, 単純およびKDに基づく一般化手法における決定境界と信頼性分布を解析することにより, 仮定に光を当てる。
決定境界が入力標本空間上の最も一般的な区別傾向(つまり、最も単純な仮説)を表すものであると仮定すると、仮説を使用する際のメソッドの様々な制限を示す。
そこで,これらの制約を解決するために,熟成した教師ベースkdを提案し,学習情報の大量破壊を伴わずに,学習者の一般化仮説を保守的に伝達する。
MNIST, CIFAR-10, CIFAR-100データセットにおける画像分類タスクのためのフィードフォワードおよび畳み込みニューラルネットワークの実用化実験において, 提案手法は, 格子探索における最適試験性能を安定的に向上することを示した。
その結果,提案手法は既存の手法よりも細部まで一般化できることが示唆された。
関連論文リスト
- Uncertainty Quantification via Hölder Divergence for Multi-View Representation Learning [18.419742575630217]
本稿では,H"older Divergence (HD)に基づく新しいアルゴリズムを導入し,多視点学習の信頼性を高める。
デンプスター・シェーファー理論を通じて、異なるモダリティからの不確実性の統合により、包括的な結果が生成される。
数学的には、HDは実際のデータ分布とモデルの予測分布の間の距離'をよりよく測定できることを証明している。
論文 参考訳(メタデータ) (2024-10-29T04:29:44Z) - Multi-dimensional domain generalization with low-rank structures [18.565189720128856]
統計的および機械学習の手法では、テストデータがトレーニングデータと同一に分散されていると仮定されるのが一般的である。
この仮定は必ずしも成り立たないが、特にトレーニングデータに対象の個体群がよく表現されていないアプリケーションでは顕著である。
線形回帰モデルにおいて,この問題に対処するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-18T08:07:58Z) - Uncertainty Estimation by Fisher Information-based Evidential Deep
Learning [61.94125052118442]
不確実性推定は、ディープラーニングを実用アプリケーションで信頼できるものにする鍵となる要素である。
漁業情報に基づくエビデンシャルディープラーニング(mathcalI$-EDL)を提案する。
特に,各サンプルが有する証拠の情報量を測定するためにFisher Information Matrix (FIM)を導入し,目的的損失項を動的に重み付けし,不確実なクラスの表現学習に集中させる。
論文 参考訳(メタデータ) (2023-03-03T16:12:59Z) - Modeling Uncertain Feature Representation for Domain Generalization [49.129544670700525]
提案手法は,複数の視覚タスクにおけるネットワーク一般化能力を常に改善することを示す。
我々の手法は単純だが有効であり、トレーニング可能なパラメータや損失制約を伴わずにネットワークに容易に統合できる。
論文 参考訳(メタデータ) (2023-01-16T14:25:02Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Deep learning: a statistical viewpoint [120.94133818355645]
ディープラーニングは、理論的観点からいくつかの大きな驚きを明らかにしました。
特に、簡単な勾配法は、最適でないトレーニング問題に対するほぼ完全な解決策を簡単に見つけます。
我々はこれらの現象を具体的原理で補うと推測する。
論文 参考訳(メタデータ) (2021-03-16T16:26:36Z) - Selective Classification via One-Sided Prediction [54.05407231648068]
片側予測(OSP)に基づく緩和は、実際に関係する高目標精度体制において、ほぼ最適カバレッジが得られるSCスキームをもたらす。
理論的には,SCとOSPのバウンダリ一般化を導出し,その手法が小さな誤差レベルでのカバレッジにおいて,技術手法の状態を強く上回ることを示す。
論文 参考訳(メタデータ) (2020-10-15T16:14:27Z) - Density Fixing: Simple yet Effective Regularization Method based on the
Class Prior [2.3859169601259347]
本稿では,教師付き・半教師付き学習によく用いられる密度固定法という正規化手法の枠組みを提案する。
提案手法は,モデルの事前分布や発生頻度を近似させることで,一般化性能を向上させる。
論文 参考訳(メタデータ) (2020-07-08T04:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。