論文の概要: Temporally Resolution Decrement: Utilizing the Shape Consistency for
Higher Computational Efficiency
- arxiv url: http://arxiv.org/abs/2112.00954v1
- Date: Thu, 2 Dec 2021 03:17:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-03 15:33:34.816434
- Title: Temporally Resolution Decrement: Utilizing the Shape Consistency for
Higher Computational Efficiency
- Title(参考訳): 時間分解能低下 : 形状整合性を利用した計算効率の向上
- Authors: Tianshu Xie, Xuan Cheng, Minghui Liu, Jiali Deng, Xiaomin Wang, Ming
Liu
- Abstract要約: 我々は、時間的解決決定という新しいトレーニング戦略を提案する。
そこで、トレーニング画像を時間領域のより小さな解像度にランダムに縮小する。
驚くべきことに、我々のアプローチは畳み込みニューラルネットワークの計算効率を大幅に改善する。
- 参考スコア(独自算出の注目度): 6.066543113636522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image resolution that has close relations with accuracy and computational
cost plays a pivotal role in network training. In this paper, we observe that
the reduced image retains relatively complete shape semantics but loses
extensive texture information. Inspired by the consistency of the shape
semantics as well as the fragility of the texture information, we propose a
novel training strategy named Temporally Resolution Decrement. Wherein, we
randomly reduce the training images to a smaller resolution in the time domain.
During the alternate training with the reduced images and the original images,
the unstable texture information in the images results in a weaker correlation
between the texture-related patterns and the correct label, naturally enforcing
the model to rely more on shape properties that are robust and conform to the
human decision rule. Surprisingly, our approach greatly improves the
computational efficiency of convolutional neural networks. On ImageNet
classification, using only 33% calculation quantity (randomly reducing the
training image to 112$\times$112 within 90% epochs) can still improve ResNet-50
from 76.32% to 77.71%, and using 63% calculation quantity (randomly reducing
the training image to 112 x 112 within 50% epochs) can improve ResNet-50 to
78.18%.
- Abstract(参考訳): 精度と計算コストの密接な関係を持つ画像解像度は、ネットワークトレーニングにおいて重要な役割を果たす。
本稿では,縮小画像が比較的完全な形状セマンティクスを保ちながら,広範なテクスチャ情報を失うことを観察する。
形状セマンティクスの一貫性とテクスチャ情報の柔軟性に着想を得て,時間分解デクリメントと呼ばれる新しいトレーニング戦略を提案する。
そこで、トレーニング画像をランダムに、時間領域のより小さな解像度に削減します。
縮小画像と原画像との交互な訓練の間、画像内の不安定なテクスチャ情報は、テクスチャ関連パターンと正しいラベルとの相関が弱くなり、自然に、人間の決定規則に準拠した頑健な形状特性に依存するようにモデルを強制する。
驚くべきことに、我々のアプローチは畳み込みニューラルネットワークの計算効率を大幅に改善する。
imagenetの分類では、resnet-50は33%の計算量(90%のエポックで約112ドル)で76.32%から77.71%に改善でき、63%の計算量(50%のエポックで約112 x 1112に縮小する)でresnet-50を78.18%に改善できる。
関連論文リスト
- Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Boosting Verified Training for Robust Image Classifications via
Abstraction [20.656457368486876]
本稿では,ロバストな画像分類器のための新しい,抽象的,認証されたトレーニング手法を提案する。
間隔のトレーニングにより、同じ間隔にマッピングされた全ての摂動画像を同じラベルに分類する。
また,この学習手法により,健全かつ完全なブラックボックス検証手法が実現される。
論文 参考訳(メタデータ) (2023-03-21T02:38:14Z) - Scaling Laws For Deep Learning Based Image Reconstruction [26.808569077500128]
トレーニングセットのサイズをスケールアップすることで、大きなパフォーマンス向上が期待できるかどうかを調査する。
初期の急激なパワーロースケーリングは、適度なトレーニングセットサイズですでに大幅に遅くなっています。
我々は、線形推定器の性能を早期に停止勾配降下によって解析的に評価した。
論文 参考訳(メタデータ) (2022-09-27T14:44:57Z) - Core Risk Minimization using Salient ImageNet [53.616101711801484]
私たちは、1000のImagenetクラスのコアとスプリアス機能をローカライズする100万人以上のソフトマスクを備えたSalient Imagenetデータセットを紹介します。
このデータセットを用いて、まず、いくつかのImagenet事前訓練されたモデル(総計42件)の素早い特徴に対する依存度を評価する。
次に、コアリスク最小化(CoRM)と呼ばれる新しい学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-28T01:53:34Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Shape-Texture Debiased Neural Network Training [50.6178024087048]
畳み込みニューラルネットワークは、トレーニングデータセットによって、テクスチャまたは形状にバイアスされることが多い。
形状・テクスチャ・デバイアスド学習のためのアルゴリズムを開発した。
実験により,本手法は複数の画像認識ベンチマークにおけるモデル性能の向上に成功していることが示された。
論文 参考訳(メタデータ) (2020-10-12T19:16:12Z) - Increasing the Robustness of Semantic Segmentation Models with
Painting-by-Numbers [39.95214171175713]
我々は,物体の形状に対するネットワークバイアスを増大させることにより,出力を改善することができる画像分類からの洞察に基づいて構築する。
我々の基本的な考え方は、RGBトレーニング画像の一部を偽画像でアルファブレンドすることであり、各クラスラベルには、固定されたランダムに選択された色が与えられる。
各種ネットワークバックボーン,MobileNet-V2,ResNets,Xceptionを用いたDeepLabv3+のトレーニングスキーマの有効性を実証し,Cityscapesデータセットで評価した。
論文 参考訳(メタデータ) (2020-10-12T07:42:39Z) - Glance and Focus: a Dynamic Approach to Reducing Spatial Redundancy in
Image Classification [46.885260723836865]
ディープ畳み込みニューラルネットワーク (Deep Convolutional Neural Network, CNN) は、高解像度画像で処理することで一般的に改善される。
画像中のすべての領域がタスク関連であるとは限らないという事実に着想を得て,効率的な画像分類を行う新しいフレームワークを提案する。
我々のフレームワークは、最先端の軽量CNNの多くと互換性があり、汎用的で柔軟です。
論文 参考訳(メタデータ) (2020-10-11T17:55:06Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。