論文の概要: Online Convolutional Re-parameterization
- arxiv url: http://arxiv.org/abs/2204.00826v1
- Date: Sat, 2 Apr 2022 09:50:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 14:42:32.813444
- Title: Online Convolutional Re-parameterization
- Title(参考訳): オンライン畳み込み再パラメータ化
- Authors: Mu Hu, Junyi Feng, Jiashen Hua, Baisheng Lai, Jianqiang Huang, Xiaojin
Gong, Xiansheng Hua
- Abstract要約: 2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
- 参考スコア(独自算出の注目度): 51.97831675242173
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Structural re-parameterization has drawn increasing attention in various
computer vision tasks. It aims at improving the performance of deep models
without introducing any inference-time cost. Though efficient during inference,
such models rely heavily on the complicated training-time blocks to achieve
high accuracy, leading to large extra training cost. In this paper, we present
online convolutional re-parameterization (OREPA), a two-stage pipeline, aiming
to reduce the huge training overhead by squeezing the complex training-time
block into a single convolution. To achieve this goal, we introduce a linear
scaling layer for better optimizing the online blocks. Assisted with the
reduced training cost, we also explore some more effective re-param components.
Compared with the state-of-the-art re-param models, OREPA is able to save the
training-time memory cost by about 70% and accelerate the training speed by
around 2x. Meanwhile, equipped with OREPA, the models outperform previous
methods on ImageNet by up to +0.6%.We also conduct experiments on object
detection and semantic segmentation and show consistent improvements on the
downstream tasks. Codes are available at
https://github.com/JUGGHM/OREPA_CVPR2022 .
- Abstract(参考訳): 構造的再パラメータ化は様々なコンピュータビジョンタスクにおいて注目を集めている。
推論時間コストを導入することなく、ディープモデルのパフォーマンスを改善することを目指している。
推論の効率は良いが、これらのモデルは高い精度を達成するために複雑な訓練時間ブロックに大きく依存しているため、追加の訓練コストが大きい。
本稿では,複雑なトレーニング時間ブロックを1つの畳み込みに絞り込むことで,膨大なトレーニングオーバヘッドを削減することを目的とした,2段パイプラインのオンライン畳み込み再パラメータ化(orepa)を提案する。
この目的を達成するために,オンラインブロックを最適化するための線形スケーリング層を導入する。
トレーニングコストの削減の支援として,より効果的な再パラメータコンポーネントについても検討する。
最先端のリパラムモデルと比較して、orepaはトレーニング時のメモリコストを約70%削減し、トレーニング速度を約2倍に抑えることができる。
一方、orepaを装備したモデルは、imagenetの以前のメソッドを最大で0.6%上回る。
また,オブジェクト検出と意味セグメンテーションの実験を行い,下流タスクにおける一貫した改善を示す。
コードはhttps://github.com/jugghm/orepa_cvpr2022で入手できる。
関連論文リスト
- SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Time-, Memory- and Parameter-Efficient Visual Adaptation [75.28557015773217]
バックボーンを介して勾配をバックプロパゲートしない適応法を提案する。
凍結した、事前訓練されたバックボーンの機能を利用する軽量ネットワークを並列に設計することで、これを実現する。
論文 参考訳(メタデータ) (2024-02-05T10:55:47Z) - Always-Sparse Training by Growing Connections with Guided Stochastic
Exploration [46.4179239171213]
本研究では,より大規模かつスペーサーなモデルへのスケーリングに優れる,効率的な常時スパーストレーニングアルゴリズムを提案する。
我々は,VGGモデルとVTモデルを用いて,CIFAR-10/100 と ImageNet の手法を評価し,様々なスペーサー化手法と比較した。
論文 参考訳(メタデータ) (2024-01-12T21:32:04Z) - Surrogate Lagrangian Relaxation: A Path To Retrain-free Deep Neural
Network Pruning [9.33753001494221]
ネットワークプルーニングは、ディープニューラルネットワークの計算コストとモデルサイズの削減に広く用いられている手法である。
本稿では,サロゲートラグランジアン緩和に基づく体系的な重み付け最適化手法を開発する。
論文 参考訳(メタデータ) (2023-04-08T22:48:30Z) - A Fast and Efficient Conditional Learning for Tunable Trade-Off between
Accuracy and Robustness [11.35810118757863]
クリーンかつ逆摂動画像上でのSOTA(State-of-the-art)性能を実現する既存のモデルは、FiLM(Feature-wise linear modulation)層を条件とした畳み込み操作に依存している。
既存のFiLMベースの条件付けの代わりに、付加層を必要としない独特な重み付き学習を行うFLOATアルゴリズムを提案する。
特に、重みテンソルにスケールドノイズを加え、クリーンな性能と対向的な性能のトレードオフを可能にする。
論文 参考訳(メタデータ) (2022-03-28T19:25:36Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。