論文の概要: Compounding the Performance Improvements of Assembled Techniques in a
Convolutional Neural Network
- arxiv url: http://arxiv.org/abs/2001.06268v2
- Date: Fri, 13 Mar 2020 10:27:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 12:37:21.522132
- Title: Compounding the Performance Improvements of Assembled Techniques in a
Convolutional Neural Network
- Title(参考訳): 畳み込みニューラルネットワークにおける組立技術の性能改善の複合化
- Authors: Jungkyu Lee, Taeryun Won, Tae Kwan Lee, Hyemin Lee, Geonmo Gu, Kiho
Hong
- Abstract要約: 基本CNNモデルの精度とロバスト性を改善する方法について述べる。
提案したResNet-50は、トップ1の精度を76.3%から82.78%、mCEを76.0%から48.9%、mFRを57.7%から32.3%に改善した。
CVPR 2019でiFood Competition Fine-Grained Visual Recognitionで1位を獲得した。
- 参考スコア(独自算出の注目度): 6.938261599173859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies in image classification have demonstrated a variety of
techniques for improving the performance of Convolutional Neural Networks
(CNNs). However, attempts to combine existing techniques to create a practical
model are still uncommon. In this study, we carry out extensive experiments to
validate that carefully assembling these techniques and applying them to basic
CNN models (e.g. ResNet and MobileNet) can improve the accuracy and robustness
of the models while minimizing the loss of throughput. Our proposed assembled
ResNet-50 shows improvements in top-1 accuracy from 76.3\% to 82.78\%, mCE from
76.0\% to 48.9\% and mFR from 57.7\% to 32.3\% on ILSVRC2012 validation set.
With these improvements, inference throughput only decreases from 536 to 312.
To verify the performance improvement in transfer learning, fine grained
classification and image retrieval tasks were tested on several public datasets
and showed that the improvement to backbone network performance boosted
transfer learning performance significantly. Our approach achieved 1st place in
the iFood Competition Fine-Grained Visual Recognition at CVPR 2019, and the
source code and trained models are available at
https://github.com/clovaai/assembled-cnn
- Abstract(参考訳): 画像分類における最近の研究は、畳み込みニューラルネットワーク(CNN)の性能向上のための様々な手法を実証している。
しかし、既存の技術を組み合わせて実用的なモデルを作る試みは、いまだにまれである。
本研究では,これらの手法を慎重に組み立て,基本的なCNNモデル(ResNetやMobileNetなど)に適用することで,スループットの損失を最小限に抑えながら,モデルの精度と堅牢性を向上できることを示す。
提案したResNet-50では,トップ1の精度が76.3\%から82.78\%,mCEが76.0\%から48.9\%,mFRが57.7\%から32.3\%に向上した。
これらの改善により、推論のスループットは536から312に低下する。
転送学習の性能向上を検証するため,複数の公開データセット上できめ細かい分類と画像検索タスクをテストし,バックボーンネットワーク性能の改善により転送学習性能が著しく向上したことを示した。
我々のアプローチはCVPR 2019でiFood Competition Fine-Grained Visual Recognitionで1位を獲得し、ソースコードとトレーニングされたモデルはhttps://github.com/clovaai/assembled-cnnで入手できる。
関連論文リスト
- Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - ConvNeXt V2: Co-designing and Scaling ConvNets with Masked Autoencoders [104.05133094625137]
完全畳み込み型マスク付きオートエンコーダフレームワークと,新たなグローバル応答正規化層を提案する。
この自己教師付き学習技術とアーキテクチャ改善の共設計により、純粋なConvNetの性能を大幅に向上させるConvNeXt V2と呼ばれる新しいモデルファミリが生まれる。
論文 参考訳(メタデータ) (2023-01-02T18:59:31Z) - Establishing a stronger baseline for lightweight contrastive models [10.63129923292905]
最近の研究は、特別に設計された効率的なネットワークのための自己指導型コントラスト学習の性能劣化を報告している。
一般的な実践は、事前訓練された対照的な教師モデルを導入し、教師が生成した蒸留信号で軽量ネットワークを訓練することである。
本研究では,教師モデルの事前学習を使わずに,軽量コントラストモデルのための強力なベースラインを確立することを目的とする。
論文 参考訳(メタデータ) (2022-12-14T11:20:24Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - Effective Model Sparsification by Scheduled Grow-and-Prune Methods [73.03533268740605]
本稿では,高密度モデルの事前学習を伴わない新規なGrow-and-prune(GaP)手法を提案する。
実験により、そのようなモデルは様々なタスクにおいて80%の間隔で高度に最適化された高密度モデルの品質に適合または打ち勝つことができることが示された。
論文 参考訳(メタデータ) (2021-06-18T01:03:13Z) - Beyond Self-Supervision: A Simple Yet Effective Network Distillation
Alternative to Improve Backbones [40.33419553042038]
既製のトレーニング済み大型モデルからナレッジ蒸留による既存ベースラインネットワークの改善を提案します。
本ソリューションは,教師モデルと整合した学生モデルの予測のみを駆動することにより,蒸留を行う。
例えば、MobileNetV3-large と ResNet50-D の ImageNet-1k 検証セットにおけるトップ-1 の精度は、大幅に向上できる。
論文 参考訳(メタデータ) (2021-03-10T09:32:44Z) - An Efficient Quantitative Approach for Optimizing Convolutional Neural
Networks [16.072287925319806]
本稿では,CNNアーキテクチャの品質を推定し,設計の探索プロセスを導く3D-Receptive Field (3DRF)を提案する。
我々のモデルは、MobileNetやResNetのような最先端のCNN構造と比較して、最大5.47%の精度向上と65.38%のパラメータを達成できる。
論文 参考訳(メタデータ) (2020-09-11T05:14:34Z) - RNN-T Models Fail to Generalize to Out-of-Domain Audio: Causes and
Solutions [73.45995446500312]
ストリーミングおよび非ストリーミングリカレントニューラルネットワークトランスデューサ(RNN-T)のエンド・ツー・エンドモデルにおける一般化特性を解析した。
トレーニング中に複数の正規化手法を組み合わせる方法と,動的重複推論を用いる方法を提案する。
論文 参考訳(メタデータ) (2020-05-07T06:24:47Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。