論文の概要: MaxDropoutV2: An Improved Method to Drop out Neurons in Convolutional
Neural Networks
- arxiv url: http://arxiv.org/abs/2203.02740v1
- Date: Sat, 5 Mar 2022 13:41:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 11:30:48.268845
- Title: MaxDropoutV2: An Improved Method to Drop out Neurons in Convolutional
Neural Networks
- Title(参考訳): MaxDropoutV2:畳み込みニューラルネットワークにおけるニューロンの排除方法の改善
- Authors: Claudio Filipi Goncalves do Santos, Mateus Roder, Leandro A. Passos,
and Jo\~ao P. Papa
- Abstract要約: 我々はMaxDropoutV2と呼ばれる教師付き正規化手法の改良版を提案する。
その結果、モデルが標準バージョンよりも高速に動作し、ほとんどの場合、より正確な結果が得られます。
- 参考スコア(独自算出の注目度): 0.39146761527401425
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the last decade, exponential data growth supplied the machine
learning-based algorithms' capacity and enabled their usage in daily life
activities. Additionally, such an improvement is partially explained due to the
advent of deep learning techniques, i.e., stacks of simple architectures that
end up in more complex models. Although both factors produce outstanding
results, they also pose drawbacks regarding the learning process since training
complex models denotes an expensive task and results are prone to overfit the
training data. A supervised regularization technique called MaxDropout was
recently proposed to tackle the latter, providing several improvements
concerning traditional regularization approaches. In this paper, we present its
improved version called MaxDropoutV2. Results considering two public datasets
show that the model performs faster than the standard version and, in most
cases, provides more accurate results.
- Abstract(参考訳): 過去10年間、指数関数的データ成長は機械学習ベースのアルゴリズムの能力を提供し、日々の生活での利用を可能にした。
さらに、このような改善は、より複雑なモデルで終わる単純なアーキテクチャのスタックのようなディープラーニング技術の出現によって部分的に説明される。
どちらの要因も優れた結果をもたらすが、複雑なモデルのトレーニングは高価なタスクを示し、その結果はトレーニングデータに過度に適合する可能性があるため、学習プロセスに関しても欠点がある。
maxdropoutと呼ばれる教師付き正規化手法が最近提案され、従来の正規化アプローチに関するいくつかの改善が提供されている。
本稿では,改良版であるMaxDropoutV2を紹介する。
2つの公開データセットを考慮すると、モデルが標準バージョンよりも高速に動作し、ほとんどの場合、より正確な結果が得られます。
関連論文リスト
- Accelerating Deep Learning with Fixed Time Budget [2.190627491782159]
本稿では,一定時間内に任意のディープラーニングモデルを学習するための効果的な手法を提案する。
提案手法はコンピュータビジョンにおける分類タスクと回帰タスクの両方において広範囲に評価される。
論文 参考訳(メタデータ) (2024-10-03T21:18:04Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Optimizing Dense Feed-Forward Neural Networks [0.0]
本稿では,プルーニングと移動学習に基づくフィードフォワードニューラルネットワークの構築手法を提案する。
提案手法では,パラメータ数を70%以上圧縮できる。
また、ニューラルネットワークをスクラッチからトレーニングしたモデルと元のモデルを比較し、トランスファー学習レベルを評価した。
論文 参考訳(メタデータ) (2023-12-16T23:23:16Z) - The Trifecta: Three simple techniques for training deeper
Forward-Forward networks [0.0]
本稿では,より深いネットワーク上でのフォワード・フォワードアルゴリズムを大幅に改善する3つの手法のコレクションを提案する。
我々の実験は、我々のモデルが、単純なデータセットのトレーニング速度とテスト精度の両方において、同様に構造化されたバックプロパゲーションベースのモデルと同等であることを示した。
論文 参考訳(メタデータ) (2023-11-29T22:44:32Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Towards Compute-Optimal Transfer Learning [82.88829463290041]
我々は、事前訓練されたモデルのゼロショット構造化プルーニングにより、性能を最小限に抑えて計算効率を向上させることができると主張している。
その結果,事前訓練されたモデルの畳み込み畳み込みフィルタは,低計算条件下で20%以上の性能向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-25T21:49:09Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - From Actions to Events: A Transfer Learning Approach Using Improved Deep
Belief Networks [1.0554048699217669]
本稿では,エネルギーモデルを用いた行動認識からイベント認識への知識マッピング手法を提案する。
このようなモデルはすべてのフレームを同時に処理し、学習プロセスを通じて空間的および時間的情報を運ぶことができる。
論文 参考訳(メタデータ) (2022-11-30T14:47:10Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Advanced Dropout: A Model-free Methodology for Bayesian Dropout
Optimization [62.8384110757689]
ディープニューラルネットワーク(DNN)の現実的応用において、ユビキタスなオーバーフィッティングが存在する
先進的なドロップアウト手法は、パラメトリック先行でモデルフリーで容易に実装された分布を適用し、ドロップアウト率を適応的に調整する。
7つのコンピュータビジョンデータセットにおける9つのドロップアウト手法に対する高度なドロップアウトの有効性を評価する。
論文 参考訳(メタデータ) (2020-10-11T13:19:58Z) - An Efficient Method of Training Small Models for Regression Problems
with Knowledge Distillation [1.433758865948252]
回帰問題に対する知識蒸留の新しい定式化を提案する。
まず,教師モデル予測を用いて,教師モデルを用いた学習サンプルの退学率を下げる新たな損失関数,教師の退学率の減少を提案する。
マルチタスクネットワークを考えることで、学生モデルの特徴抽出の訓練がより効果的になる。
論文 参考訳(メタデータ) (2020-02-28T08:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。