論文の概要: Fixing the train-test resolution discrepancy: FixEfficientNet
- arxiv url: http://arxiv.org/abs/2003.08237v5
- Date: Wed, 18 Nov 2020 09:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:40:06.994738
- Title: Fixing the train-test resolution discrepancy: FixEfficientNet
- Title(参考訳): 列車-テストの解像度差の修正: FixEfficientNet
- Authors: Hugo Touvron, Andrea Vedaldi, Matthijs Douze, Herv\'e J\'egou
- Abstract要約: 本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
- 参考スコア(独自算出の注目度): 98.64315617109344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper provides an extensive analysis of the performance of the
EfficientNet image classifiers with several recent training procedures, in
particular one that corrects the discrepancy between train and test images. The
resulting network, called FixEfficientNet, significantly outperforms the
initial architecture with the same number of parameters.
For instance, our FixEfficientNet-B0 trained without additional training data
achieves 79.3% top-1 accuracy on ImageNet with 5.3M parameters. This is a +0.5%
absolute improvement over the Noisy student EfficientNet-B0 trained with 300M
unlabeled images. An EfficientNet-L2 pre-trained with weak supervision on 300M
unlabeled images and further optimized with FixRes achieves 88.5% top-1
accuracy (top-5: 98.7%), which establishes the new state of the art for
ImageNet with a single crop.
These improvements are thoroughly evaluated with cleaner protocols than the
one usually employed for Imagenet, and particular we show that our improvement
remains in the experimental setting of ImageNet-v2, that is less prone to
overfitting, and with ImageNet Real Labels. In both cases we also establish the
new state of the art.
- Abstract(参考訳): 本稿では,最近の訓練手順,特に列車画像と試験画像の相違を補正する手法を用いて,効率の高い画像分類器の性能を広範囲に分析する。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
例えば、FixEfficientNet-B0は、追加のトレーニングデータなしでトレーニングされ、5.3Mパラメータを持つImageNet上で79.3%のトップ-1の精度を達成する。
これは300mのラベルのない画像で訓練されたノイズの多い学生effernet-b0に対して、0.5%の絶対的な改善である。
300Mの未ラベル画像の監督が弱く、FixResでさらに最適化されたEfficientNet-L2は88.5%のトップ-1精度(トップ5:98.7%)を達成した。
これらの改善は、通常、Imagenetで使用されるプロトコルよりもクリーンなプロトコルで徹底的に評価され、特に、ImageNet-v2の実験的な設定では、過度に適合する傾向が低く、ImageNet Real Labelsでは改善が継続されていることを示す。
どちらの場合も、私たちは新しい芸術の状況を確立します。
関連論文リスト
- Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - EfficientNetV2: Smaller Models and Faster Training [91.77432224225221]
本稿では,従来のモデルよりも高速な学習速度とパラメータ効率を有する畳み込みネットワークであるEfficientNetV2を紹介する。
トレーニング対応のニューラルネットワークアーキテクチャ検索とスケーリングを組み合わせて、トレーニング速度とパラメータ効率を共同で最適化します。
実験の結果,EfficientNetV2モデルは最先端モデルよりも最大6.8倍の速度でトレーニングできることがわかった。
論文 参考訳(メタデータ) (2021-04-01T07:08:36Z) - High-Performance Large-Scale Image Recognition Without Normalization [34.58818094675353]
バッチ正規化は、ほとんどの画像分類モデルのキーコンポーネントであるが、多くの望ましくない性質を持っている。
我々は,これらの不安定性を克服する適応的勾配クリッピング手法を開発し,より優れた正規化自由レスネットのクラスを設計する。
大規模事前トレーニング後のImageNetの微調整では,バッチ正規化よりも大幅に性能が向上した。
論文 参考訳(メタデータ) (2021-02-11T18:23:20Z) - Training EfficientNets at Supercomputer Scale: 83% ImageNet Top-1
Accuracy in One Hour [38.89981855438478]
本稿では,2048コアのTPU-v3ポッド上でのEfficientNetsのトレーニングをスケールアップする手法を提案する。
ImageNet上でEfficientNetを1時間4分で83%の精度でトレーニングすることができます。
論文 参考訳(メタデータ) (2020-10-30T19:27:11Z) - MEAL V2: Boosting Vanilla ResNet-50 to 80%+ Top-1 Accuracy on ImageNet
without Tricks [57.69809561405253]
我々は、ImageNet上でバニラResNet-50を80%以上のTop-1精度に向上できるフレームワークを、トリックなしで導入する。
本手法は,バニラResNet-50を用いた224x224の1つの作物サイズを用いて,ImageNetの80.67%のトップ1精度を得る。
我々のフレームワークは常に69.76%から73.19%に改善されている。
論文 参考訳(メタデータ) (2020-09-17T17:59:33Z) - Compounding the Performance Improvements of Assembled Techniques in a
Convolutional Neural Network [6.938261599173859]
基本CNNモデルの精度とロバスト性を改善する方法について述べる。
提案したResNet-50は、トップ1の精度を76.3%から82.78%、mCEを76.0%から48.9%、mFRを57.7%から32.3%に改善した。
CVPR 2019でiFood Competition Fine-Grained Visual Recognitionで1位を獲得した。
論文 参考訳(メタデータ) (2020-01-17T12:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。