論文の概要: Efficient ResNets: Residual Network Design
- arxiv url: http://arxiv.org/abs/2306.12100v1
- Date: Wed, 21 Jun 2023 08:28:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 14:19:36.033827
- Title: Efficient ResNets: Residual Network Design
- Title(参考訳): 効率的なResNets: 残留ネットワーク設計
- Authors: Aditya Thakur, Harish Chauhan, Nikunj Gupta
- Abstract要約: ResNets(Residual Networks)は、画像分類タスクにおいて最もよく使われるモデルの一つである。
本稿では,CIFAR-10画像分類のためのResNetモデルの設計と訓練を行う。
トレーニング可能なパラメータの数として測定されるモデルサイズは、限られたストレージ容量を持つデバイスにモデルを保存する必要がある場合に重要である。
- 参考スコア(独自算出の注目度): 0.8594140167290096
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: ResNets (or Residual Networks) are one of the most commonly used models for
image classification tasks. In this project, we design and train a modified
ResNet model for CIFAR-10 image classification. In particular, we aimed at
maximizing the test accuracy on the CIFAR-10 benchmark while keeping the size
of our ResNet model under the specified fixed budget of 5 million trainable
parameters. Model size, typically measured as the number of trainable
parameters, is important when models need to be stored on devices with limited
storage capacity (e.g. IoT/edge devices). In this article, we present our
residual network design which has less than 5 million parameters. We show that
our ResNet achieves a test accuracy of 96.04% on CIFAR-10 which is much higher
than ResNet18 (which has greater than 11 million trainable parameters) when
equipped with a number of training strategies and suitable ResNet
hyperparameters. Models and code are available at
https://github.com/Nikunj-Gupta/Efficient_ResNets.
- Abstract(参考訳): ResNets(Residual Networks)は、画像分類タスクにおいて最もよく使われるモデルの一つである。
本稿では,CIFAR-10画像分類のためのResNetモデルの設計と訓練を行う。
特に,500万のトレーニング可能なパラメータの固定予算の下でResNetモデルのサイズを維持しながら,CIFAR-10ベンチマークでのテスト精度を最大化することを目的とした。
トレーニング可能なパラメータの数として測定されるモデルサイズは、ストレージ容量の限られたデバイス(IoT/エッジデバイスなど)にモデルを保存する必要がある場合に重要である。
本稿では,500万未満のパラメータを持つネットワーク設計について述べる。
resnetは、多くのトレーニング戦略と適切なresnetハイパーパラメータを備えた場合、resnet18(訓練可能なパラメータが1100万以上ある)よりもはるかに高いcifar-10上で96.04%のテスト精度を達成しています。
モデルとコードはhttps://github.com/Nikunj-Gupta/Efficient_ResNetsで入手できる。
関連論文リスト
- Learning to Generate Parameters of ConvNets for Unseen Image Data [36.68392191824203]
ConvNetは大量の画像データに依存しており、ネットワークパラメータを学習するための反復最適化アルゴリズムを採用している。
本稿では,新しい学習パラダイムを提案し,予測タスクにConvNetのパラメータ学習を定式化する。
提案手法は,2種類の画像データセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:26:18Z) - ScaleNet: An Unsupervised Representation Learning Method for Limited
Information [0.0]
ScaleNet という,シンプルで効率的な非教師なし表現学習手法を提案する。
ハリスコーナー情報のような特定の画像特徴は、回転予測タスクの効率において重要な役割を果たす。
限られたデータを持つScaleNetモデルから転送されたパラメータは、RotNetモデルと比較して、ImageNet分類タスクを約6%改善する。
論文 参考訳(メタデータ) (2023-10-03T19:13:43Z) - Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - A Cross-Residual Learning for Image Recognition [4.543455110336685]
本稿では、C-ResNetと呼ばれるクロスレジデンシャル学習ネットワークの一種であるResNetの別の変種について述べる。
C-ResNetsはジャンパーを密度化することでモジュール間の情報インタラクションを高め、ジャンパーの役割を強化する。
微調整されたResNetと比較して、C-ResNetsは分類性能を維持するだけでなく、計算量やパラメータを大幅に削減する。
論文 参考訳(メタデータ) (2022-11-22T15:12:55Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - LilNetX: Lightweight Networks with EXtreme Model Compression and
Structured Sparsification [36.651329027209634]
LilNetXは、ニューラルネットワークのためのエンドツーエンドのトレーニング可能なテクニックである。
特定の精度-レート-計算トレードオフを持つ学習モデルを可能にする。
論文 参考訳(メタデータ) (2022-04-06T17:59:10Z) - Recurrent Parameter Generators [42.159272098922685]
本稿では,多くの異なる畳み込み層に対して同じパラメータを反復的に使用してディープネットワークを構築するための汎用的手法を提案する。
我々は,従来のCNNモデルと同じような性能を実現するために,一層ニューラルネットワークを構築する方法を示す。
論文 参考訳(メタデータ) (2021-07-15T04:23:59Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。