論文の概要: Auto-Ensemble: An Adaptive Learning Rate Scheduling based Deep Learning
Model Ensembling
- arxiv url: http://arxiv.org/abs/2003.11266v2
- Date: Thu, 3 Dec 2020 02:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 02:48:46.905262
- Title: Auto-Ensemble: An Adaptive Learning Rate Scheduling based Deep Learning
Model Ensembling
- Title(参考訳): auto-ensemble:deep learning model ensemblingを用いた適応学習率スケジューリング
- Authors: Jun Yang, Fei Wang
- Abstract要約: 本稿では,ディープラーニングモデルのチェックポイントを収集し,それらを自動的にアンサンブルする自動アンサンブル(AE)を提案する。
この手法の利点は、一度のトレーニングで学習率をスケジューリングすることで、モデルを様々な局所最適化に収束させることである。
- 参考スコア(独自算出の注目度): 11.324407834445422
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Ensembling deep learning models is a shortcut to promote its implementation
in new scenarios, which can avoid tuning neural networks, losses and training
algorithms from scratch. However, it is difficult to collect sufficient
accurate and diverse models through once training. This paper proposes
Auto-Ensemble (AE) to collect checkpoints of deep learning model and ensemble
them automatically by adaptive learning rate scheduling algorithm. The
advantage of this method is to make the model converge to various local optima
by scheduling the learning rate in once training. When the number of lo-cal
optimal solutions tends to be saturated, all the collected checkpoints are used
for ensemble. Our method is universal, it can be applied to various scenarios.
Experiment results on multiple datasets and neural networks demonstrate it is
effective and competitive, especially on few-shot learning. Besides, we
proposed a method to measure the distance among models. Then we can ensure the
accuracy and diversity of collected models.
- Abstract(参考訳): ディープラーニングモデルの組み立ては、ニューラルネットワークのチューニングや損失、トレーニングアルゴリズムをゼロから回避できる新しいシナリオにおける実装を促進するショートカットである。
しかし、一度の訓練で十分な正確で多様なモデルを収集することは困難である。
本稿では,適応学習率スケジューリングアルゴリズムを用いて,ディープラーニングモデルのチェックポイントを収集し,自動的にアンサンブルするオートセンスブル(ae)を提案する。
この手法の利点は、一度のトレーニングで学習率をスケジューリングすることで、モデルを様々な局所最適化に収束させることである。
lo-cal最適解の数が飽和する傾向がある場合、収集されたチェックポイントはすべてアンサンブルに使用される。
我々の手法は普遍的であり、様々なシナリオに適用できる。
複数のデータセットとニューラルネットワークで実験した結果、その効果と競争力が実証された。
また,モデル間の距離を測定する手法を提案した。
収集したモデルの正確性と多様性を保証できます。
関連論文リスト
- Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Diffusion-Model-Assisted Supervised Learning of Generative Models for
Density Estimation [10.793646707711442]
本稿では,密度推定のための生成モデルを訓練するためのフレームワークを提案する。
スコアベース拡散モデルを用いてラベル付きデータを生成する。
ラベル付きデータが生成されると、シンプルな完全に接続されたニューラルネットワークをトレーニングして、教師付き方法で生成モデルを学ぶことができます。
論文 参考訳(メタデータ) (2023-10-22T23:56:19Z) - Proof of Swarm Based Ensemble Learning for Federated Learning
Applications [3.2536767864585663]
連合学習では、プライバシー上の懸念から、集中型アンサンブル学習を直接適用することは不可能である。
ビザンティンフォールトトレランス(BFT)のようなほとんどの分散コンセンサスアルゴリズムは、通常そのようなアプリケーションではうまく機能しない。
フェデレートされた環境でのアンサンブル学習のための分散コンセンサスアルゴリズムPoSwを提案する。
論文 参考訳(メタデータ) (2022-12-28T13:53:34Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Characterizing and overcoming the greedy nature of learning in
multi-modal deep neural networks [62.48782506095565]
深層ニューラルネットワークにおける学習の欲張った性質から、モデルは一つのモダリティにのみ依存する傾向にあり、他のモダリティには不適合であることを示す。
本稿では,学習中のモーダル間の条件付き学習速度のバランスをとるアルゴリズムを提案し,グリージー学習の問題に対処できることを実証する。
論文 参考訳(メタデータ) (2022-02-10T20:11:21Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Interleaving Learning, with Application to Neural Architecture Search [12.317568257671427]
インターリーブ学習(IL)と呼ばれる新しい機械学習フレームワークを提案する。
私たちのフレームワークでは、一連のモデルが相互に連携してデータエンコーダを学習します。
CIFAR-10, CIFAR-100, ImageNetの画像分類にインターリービング学習を適用した。
論文 参考訳(メタデータ) (2021-03-12T00:54:22Z) - Meta-learning One-class Classifiers with Eigenvalue Solvers for
Supervised Anomaly Detection [55.888835686183995]
教師付き異常検出のためのニューラルネットワークに基づくメタラーニング手法を提案する。
提案手法は,既存の異常検出法や少数ショット学習法よりも優れた性能を実現することを実験的に実証した。
論文 参考訳(メタデータ) (2021-03-01T01:43:04Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z) - Deep Active Learning in Remote Sensing for data efficient Change
Detection [26.136331738529243]
本研究では、変化検出とマップ更新のための深層ニューラルネットワークモデルの文脈におけるアクティブラーニングについて検討する。
アクティブな学習では、最小限のトレーニング例から始まり、ユーザによって注釈付けされた情報的サンプルを徐々に選択する。
能動学習は,高い情報的サンプルの発見に成功し,自動的にトレーニング分布のバランスをとることを示す。
論文 参考訳(メタデータ) (2020-08-25T17:58:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。