論文の概要: 1st Place in ICCV 2023 Workshop Challenge Track 1 on Resource Efficient
Deep Learning for Computer Vision: Budgeted Model Training Challenge
- arxiv url: http://arxiv.org/abs/2311.11470v1
- Date: Wed, 9 Aug 2023 05:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:58:03.777497
- Title: 1st Place in ICCV 2023 Workshop Challenge Track 1 on Resource Efficient
Deep Learning for Computer Vision: Budgeted Model Training Challenge
- Title(参考訳): 第1回iccv 2023ワークショップチャレンジトラック1 コンピュータビジョンのためのリソース効率の高いディープラーニング:予算モデルトレーニングチャレンジ
- Authors: Youngjun Kwak, Seonghun Jeong, Yunseung Lee, Changick Kim
- Abstract要約: 本稿では、プロファイルとインスタンス化フェーズで構成された、リソースを意識したバックボーン検索フレームワークについて述べる。
限られたリソースの推測精度を高めるために,マルチレゾリューションアンサンブルを用いる。
我々は,コンピュータビジョンに関する国際会議 (ICCV) 2023 Workshop Challenge Track 1 on Resource Efficient Deep Learning for Computer Vision (RCV) で優勝した。
- 参考スコア(独自算出の注目度): 15.213786895534225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The budgeted model training challenge aims to train an efficient
classification model under resource limitations. To tackle this task in
ImageNet-100, we describe a simple yet effective resource-aware backbone search
framework composed of profile and instantiation phases. In addition, we employ
multi-resolution ensembles to boost inference accuracy on limited resources.
The profile phase obeys time and memory constraints to determine the models'
optimal batch-size, max epochs, and automatic mixed precision (AMP). And the
instantiation phase trains models with the determined parameters from the
profile phase. For improving intra-domain generalizations, the multi-resolution
ensembles are formed by two-resolution images with randomly applied flips. We
present a comprehensive analysis with expensive experiments. Based on our
approach, we win first place in International Conference on Computer Vision
(ICCV) 2023 Workshop Challenge Track 1 on Resource Efficient Deep Learning for
Computer Vision (RCV).
- Abstract(参考訳): 予算モデルトレーニングチャレンジは、リソース制限下で効率的な分類モデルをトレーニングすることを目的としている。
ImageNet-100において、この課題に対処するために、プロファイルとインスタンス化フェーズからなるシンプルなリソースを意識したバックボーン検索フレームワークについて述べる。
さらに,限られた資源の推測精度を高めるため,マルチレゾリューションアンサンブルを用いる。
プロファイルフェーズは時間とメモリの制約に従って、モデルの最適なバッチサイズ、最大エポック、自動混合精度(AMP)を決定する。
そして、インスタンス化フェーズは、プロファイルフェーズから決定されたパラメータでモデルを訓練する。
ドメイン内一般化を改善するため、マルチレゾリューションアンサンブルはランダムにフリップされた2解像度画像によって形成される。
我々は高価な実験で包括的な分析を行う。
我々は,コンピュータビジョンに関する国際会議 (ICCV) 2023 Workshop Challenge Track 1 on Resource Efficient Deep Learning for Computer Vision (RCV) で優勝した。
関連論文リスト
- When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Image-to-Image Translation with Deep Reinforcement Learning [52.505221275786056]
画像から画像への変換(I2IT)手法は,ディープラーニング(DL)モデルの単一実行時に画像を生成する。
深部強化学習(DRL)によるステップワイド意思決定問題としてI2ITを再構成する。
RLベースのI2IT(RL-I2IT)を実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-24T15:40:40Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - CoMAE: Single Model Hybrid Pre-training on Small-Scale RGB-D Datasets [50.6643933702394]
本稿では,RGBと深度変調のための単一モデル自己教師型ハイブリッド事前学習フレームワークについて述べる。
我々のCoMAEは、コントラスト学習とマスク画像モデリングという2つの一般的な自己教師付き表現学習アルゴリズムを統合するためのカリキュラム学習戦略を提示している。
論文 参考訳(メタデータ) (2023-02-13T07:09:45Z) - Dense Depth Distillation with Out-of-Distribution Simulated Images [30.79756881887895]
単分子深度推定(MDE)のためのデータフリー知識蒸留(KD)について検討する。
KDは、訓練された教師モデルからそれを圧縮し、対象領域でのトレーニングデータを欠くことにより、現実世界の深度知覚タスクの軽量モデルを学ぶ。
提案手法は, トレーニング画像の1/6に留まらず, ベースラインKDのマージンが良好であり, 性能も若干向上していることを示す。
論文 参考訳(メタデータ) (2022-08-26T07:10:01Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - CompOFA: Compound Once-For-All Networks for Faster Multi-Platform
Deployment [1.433758865948252]
CompOFAは、精度レイテンシフロンティアに近いモデルに対する検索を制限します。
簡単な実験であっても、トレーニング時間の2倍の短縮とモデル探索/抽出時間の216倍の高速化を実現できることを実証する。
論文 参考訳(メタデータ) (2021-04-26T15:10:48Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z) - Simultaneous Enhancement and Super-Resolution of Underwater Imagery for
Improved Visual Perception [17.403133838762447]
水中ロボットの視力向上と超高分解能化(SESR)を同時に行う。
本稿では,2倍,3倍,あるいは4倍の空間分解能で知覚的画質の復元を学習できる残差ネットワークベース生成モデルであるDeep SESRを提案する。
論文 参考訳(メタデータ) (2020-02-04T07:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。