論文の概要: A Cross-Residual Learning for Image Recognition
- arxiv url: http://arxiv.org/abs/2211.12320v1
- Date: Tue, 22 Nov 2022 15:12:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:30:02.280158
- Title: A Cross-Residual Learning for Image Recognition
- Title(参考訳): 画像認識のためのクロスレジデント学習
- Authors: Jun Liang, Songsen Yu, Huan Yang
- Abstract要約: 本稿では、C-ResNetと呼ばれるクロスレジデンシャル学習ネットワークの一種であるResNetの別の変種について述べる。
C-ResNetsはジャンパーを密度化することでモジュール間の情報インタラクションを高め、ジャンパーの役割を強化する。
微調整されたResNetと比較して、C-ResNetsは分類性能を維持するだけでなく、計算量やパラメータを大幅に削減する。
- 参考スコア(独自算出の注目度): 4.543455110336685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ResNets and its variants play an important role in various fields of image
recognition. This paper gives another variant of ResNets, a kind of
cross-residual learning networks called C-ResNets, which has less computation
and parameters than ResNets. C-ResNets increases the information interaction
between modules by densifying jumpers and enriches the role of jumpers. In
addition, some meticulous designs on jumpers and channels counts can further
reduce the resource consumption of C-ResNets and increase its classification
performance. In order to test the effectiveness of C-ResNets, we use the same
hyperparameter settings as fine-tuned ResNets in the experiments.
We test our C-ResNets on datasets MNIST, FashionMnist, CIFAR-10, CIFAR-100,
CALTECH-101 and SVHN. Compared with fine-tuned ResNets, C-ResNets not only
maintains the classification performance, but also enormously reduces the
amount of calculations and parameters which greatly save the utilization rate
of GPUs and GPU memory resources. Therefore, our C-ResNets is competitive and
viable alternatives to ResNets in various scenarios. Code is available at
https://github.com/liangjunhello/C-ResNet
- Abstract(参考訳): ResNetとその変種は、画像認識の様々な分野で重要な役割を果たしている。
本稿では,ResNetよりも計算量やパラメータが少ないC-ResNetと呼ばれるクロスレジデンシャル学習ネットワークであるResNetの別のバリエーションを提案する。
C-ResNetsはジャンパーを密度化することでモジュール間の情報インタラクションを高め、ジャンパーの役割を強化する。
さらに、ジャンパーやチャンネル数に関する厳密な設計により、C-ResNetのリソース消費をさらに削減し、その分類性能を向上させることができる。
c-resnetsの有効性をテストするために、実験で微調整されたresnetと同じハイパーパラメータ設定を用いる。
我々は、MNIST、FashionMnist、CIFAR-10、CIFAR-100、CALTECH-101、SVHNのデータセット上でC-ResNetsをテストする。
微調整されたResNetと比較して、C-ResNetsは分類性能を維持するだけでなく、GPUやGPUメモリリソースの利用率を大幅に削減する計算とパラメータの量を大幅に削減する。
したがって、我々のC-ResNetsは様々なシナリオでResNetsに代わる競争力があり、実行可能な代替手段です。
コードはhttps://github.com/liangjunhello/C-ResNetで入手できる。
関連論文リスト
- ScaleNet: An Unsupervised Representation Learning Method for Limited
Information [0.0]
ScaleNet という,シンプルで効率的な非教師なし表現学習手法を提案する。
ハリスコーナー情報のような特定の画像特徴は、回転予測タスクの効率において重要な役割を果たす。
限られたデータを持つScaleNetモデルから転送されたパラメータは、RotNetモデルと比較して、ImageNet分類タスクを約6%改善する。
論文 参考訳(メタデータ) (2023-10-03T19:13:43Z) - Efficient ResNets: Residual Network Design [0.8594140167290096]
ResNets(Residual Networks)は、画像分類タスクにおいて最もよく使われるモデルの一つである。
本稿では,CIFAR-10画像分類のためのResNetモデルの設計と訓練を行う。
トレーニング可能なパラメータの数として測定されるモデルサイズは、限られたストレージ容量を持つデバイスにモデルを保存する必要がある場合に重要である。
論文 参考訳(メタデータ) (2023-06-21T08:28:51Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Multipod Convolutional Network [2.1485350418225244]
我々は3つの並列ポッドネットワーク(TripodNet)が一般的に使われているオブジェクト認識データセットにおいて最良の結果をもたらすことを実験的に観察した。
TripodNetはCIFAR-10とImageNetデータセットで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-10-03T02:37:57Z) - Deep Learning without Shortcuts: Shaping the Kernel with Tailored
Rectifiers [83.74380713308605]
我々は、ReLUの変種であるLeaky ReLUsと完全に互換性のある新しいタイプの変換を開発する。
実験では,ResNetsと競合する深層バニラネットワークによる検証精度を考慮し,計算コストを考慮しない手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T17:49:08Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - ResNet or DenseNet? Introducing Dense Shortcuts to ResNet [80.35001540483789]
本稿では、それらを解析するために高密度和の統一的な視点を示す。
本稿では,ResNetとDenseNetのジレンマに対する解法として,重み付き正規化ショートカットを提案する。
提案したDSNetはResNetよりもはるかに優れた結果を得ることができ、DenseNetと同等の性能を得るが、リソースは少ない。
論文 参考訳(メタデータ) (2020-10-23T16:00:15Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。