論文の概要: RRR-Net: Reusing, Reducing, and Recycling a Deep Backbone Network
- arxiv url: http://arxiv.org/abs/2310.01157v1
- Date: Mon, 2 Oct 2023 12:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 21:51:06.753667
- Title: RRR-Net: Reusing, Reducing, and Recycling a Deep Backbone Network
- Title(参考訳): RRR-Net:ディープバックボーンネットワークの再利用、削減、リサイクル
- Authors: Haozhe Sun (LISN, TAU, Inria), Isabelle Guyon (LISN, TAU, Inria),
Felix Mohr, Hedi Tabia (IBISC)
- Abstract要約: コンピュータビジョンやその他の機械学習ドメインにおいて、大規模なデータセットで事前訓練されたバックボーンネットワークをプリプロセッサとして再利用するために主流になっている。
本稿では,より小型で高速なモデルを作成する目的で,事前学習したバックボーンを再利用する手法について検討する。
- 参考スコア(独自算出の注目度): 5.622543801071318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has become mainstream in computer vision and other machine learning
domains to reuse backbone networks pre-trained on large datasets as
preprocessors. Typically, the last layer is replaced by a shallow learning
machine of sorts; the newly-added classification head and (optionally) deeper
layers are fine-tuned on a new task. Due to its strong performance and
simplicity, a common pre-trained backbone network is ResNet152.However,
ResNet152 is relatively large and induces inference latency. In many cases, a
compact and efficient backbone with similar performance would be preferable
over a larger, slower one. This paper investigates techniques to reuse a
pre-trained backbone with the objective of creating a smaller and faster model.
Starting from a large ResNet152 backbone pre-trained on ImageNet, we first
reduce it from 51 blocks to 5 blocks, reducing its number of parameters and
FLOPs by more than 6 times, without significant performance degradation. Then,
we split the model after 3 blocks into several branches, while preserving the
same number of parameters and FLOPs, to create an ensemble of sub-networks to
improve performance. Our experiments on a large benchmark of $40$ image
classification datasets from various domains suggest that our techniques match
the performance (if not better) of ``classical backbone fine-tuning'' while
achieving a smaller model size and faster inference speed.
- Abstract(参考訳): コンピュータビジョンやその他の機械学習領域では、大規模なデータセットで事前トレーニングされたバックボーンネットワークをプリプロセッサとして再利用することが主流になっている。
通常は、最後のレイヤは浅い学習マシンに置き換えられる。新たに追加された分類ヘッドと(オプションで)より深いレイヤは、新しいタスクで微調整される。
パフォーマンスと単純さが強いため、トレーニング済みのバックボーンネットワークはResNet152だが、ResNet152は比較的大きく、推論遅延を引き起こす。
多くの場合、コンパクトで効率的なバックボーンと同じようなパフォーマンスは、より大きな、遅いバックボーンよりも望ましいでしょう。
本稿では,より小型で高速なモデルを作成する目的で,事前学習したバックボーンを再利用する手法について検討する。
ImageNetで事前トレーニングされた大規模なResNet152バックボーンから始めて、51ブロックから5ブロックに減らし、パラメータとFLOPの数を6倍以上に削減しました。
そして、3ブロック後のモデルを複数のブランチに分割し、同じ数のパラメータとFLOPを保存し、性能向上のためにサブネットワークのアンサンブルを作成しました。
様々なドメインから40ドルの画像分類データセットの大規模なベンチマーク実験を行った結果、より小さなモデルサイズとより高速な推論速度を実現しつつ、``classical backbone fine-tuning''のパフォーマンスに適合していることが示唆された。
関連論文リスト
- Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image Restoration [100.54419875604721]
オールインワン画像復元は、各分解に対してタスク固有の非ジェネリックモデルを持たずに、統一されたモデルで異なるタイプの劣化に対処する。
我々は、オールインワン画像復元タスクのためのエンコーダデコーダ方式で設計されたネットワークの動的ファミリであるDyNetを提案する。
我々のDyNetは、よりバルク化と軽量化をシームレスに切り替えることができるので、効率的なモデルデプロイメントのための柔軟性を提供します。
論文 参考訳(メタデータ) (2024-04-02T17:58:49Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Neural Network Compression by Joint Sparsity Promotion and Redundancy
Reduction [4.9613162734482215]
本稿では,冗長なフィルタを創出し,空間性向上によるネットワーク学習に対する効果を最小化する,複合制約に基づく新しい学習手法を提案する。
いくつかのピクセルワイドセグメンテーションベンチマークによるテストでは、テストフェーズにおけるネットワークのニューロン数とメモリフットプリントが、性能に影響を与えずに大幅に減少することが示された。
論文 参考訳(メタデータ) (2022-10-14T01:34:49Z) - Simultaneous Training of Partially Masked Neural Networks [67.19481956584465]
トレーニングされたフルネットワークから事前定義された'コア'サブネットワークを分割して,優れたパフォーマンスでニューラルネットワークをトレーニングすることが可能であることを示す。
低ランクコアを用いたトランスフォーマーのトレーニングは,低ランクモデル単独のトレーニングよりも優れた性能を有する低ランクモデルが得られることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:57:51Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Bottleneck Transformers for Visual Recognition [97.16013761605254]
視覚タスクに自己注意を組み込んだ強力なバックボーンアーキテクチャであるBoTNetを提案する。
我々は、ImageNetベンチマークにおいて84.7%のトップ1の精度で高いパフォーマンスを達成するモデルを提案する。
私たちのシンプルで効果的なアプローチが、将来のビジョンのための自己注意モデル研究の強力なベースラインになることを期待しています。
論文 参考訳(メタデータ) (2021-01-27T18:55:27Z) - Growing Efficient Deep Networks by Structured Continuous Sparsification [34.7523496790944]
私たちは、トレーニングの過程でディープネットワークアーキテクチャを成長させるアプローチを開発します。
我々の手法は、小さくてシンプルなシードアーキテクチャから始まり、動的に成長し、層とフィルタの両方を熟成することができる。
ImageNetのベースラインであるResNet-50と比較すると、推論FLOPは49.7%、トレーニングFLOPは47.4%である。
論文 参考訳(メタデータ) (2020-07-30T10:03:47Z) - Paying more attention to snapshots of Iterative Pruning: Improving Model
Compression via Ensemble Distillation [4.254099382808598]
既存の手法はしばしば、性能に大きな損失を与えることなく、高い圧縮率を達成するために反復的にプルーンネットワークを使用する。
本研究は,ネットワーク構造に異なる競合性能を実現するため,反復的プルーニングのスナップショットから強力なアンサンブルを構築することができることを示す。
CIFARやTiny-Imagenetなどの標準画像分類ベンチマークでは、簡単なl1-normフィルタをパイプラインに組み込むことで、構造化プルーニングの最先端プルーニング比を推し進める。
論文 参考訳(メタデータ) (2020-06-20T03:59:46Z) - Improved Residual Networks for Image and Video Recognition [98.10703825716142]
ResNets(Residual Networks)は、CNN(Convolutional Neural Network)アーキテクチャの強力なタイプである。
ベースライン上での精度と学習収束性を一貫した改善を示す。
提案手法では,高度に深いネットワークをトレーニングできるが,ベースラインは厳密な最適化問題を示す。
論文 参考訳(メタデータ) (2020-04-10T11:09:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。