論文の概要: 1st Place in ICCV 2023 Workshop Challenge Track 1 on Resource Efficient
Deep Learning for Computer Vision: Budgeted Model Training Challenge
- arxiv url: http://arxiv.org/abs/2311.11470v1
- Date: Wed, 9 Aug 2023 05:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:58:03.777497
- Title: 1st Place in ICCV 2023 Workshop Challenge Track 1 on Resource Efficient
Deep Learning for Computer Vision: Budgeted Model Training Challenge
- Title(参考訳): 第1回iccv 2023ワークショップチャレンジトラック1 コンピュータビジョンのためのリソース効率の高いディープラーニング:予算モデルトレーニングチャレンジ
- Authors: Youngjun Kwak, Seonghun Jeong, Yunseung Lee, Changick Kim
- Abstract要約: 本稿では、プロファイルとインスタンス化フェーズで構成された、リソースを意識したバックボーン検索フレームワークについて述べる。
限られたリソースの推測精度を高めるために,マルチレゾリューションアンサンブルを用いる。
我々は,コンピュータビジョンに関する国際会議 (ICCV) 2023 Workshop Challenge Track 1 on Resource Efficient Deep Learning for Computer Vision (RCV) で優勝した。
- 参考スコア(独自算出の注目度): 15.213786895534225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The budgeted model training challenge aims to train an efficient
classification model under resource limitations. To tackle this task in
ImageNet-100, we describe a simple yet effective resource-aware backbone search
framework composed of profile and instantiation phases. In addition, we employ
multi-resolution ensembles to boost inference accuracy on limited resources.
The profile phase obeys time and memory constraints to determine the models'
optimal batch-size, max epochs, and automatic mixed precision (AMP). And the
instantiation phase trains models with the determined parameters from the
profile phase. For improving intra-domain generalizations, the multi-resolution
ensembles are formed by two-resolution images with randomly applied flips. We
present a comprehensive analysis with expensive experiments. Based on our
approach, we win first place in International Conference on Computer Vision
(ICCV) 2023 Workshop Challenge Track 1 on Resource Efficient Deep Learning for
Computer Vision (RCV).
- Abstract(参考訳): 予算モデルトレーニングチャレンジは、リソース制限下で効率的な分類モデルをトレーニングすることを目的としている。
ImageNet-100において、この課題に対処するために、プロファイルとインスタンス化フェーズからなるシンプルなリソースを意識したバックボーン検索フレームワークについて述べる。
さらに,限られた資源の推測精度を高めるため,マルチレゾリューションアンサンブルを用いる。
プロファイルフェーズは時間とメモリの制約に従って、モデルの最適なバッチサイズ、最大エポック、自動混合精度(AMP)を決定する。
そして、インスタンス化フェーズは、プロファイルフェーズから決定されたパラメータでモデルを訓練する。
ドメイン内一般化を改善するため、マルチレゾリューションアンサンブルはランダムにフリップされた2解像度画像によって形成される。
我々は高価な実験で包括的な分析を行う。
我々は,コンピュータビジョンに関する国際会議 (ICCV) 2023 Workshop Challenge Track 1 on Resource Efficient Deep Learning for Computer Vision (RCV) で優勝した。
関連論文リスト
- Precise Drive with VLM: First Prize Solution for PRCV 2024 Drive LM challenge [8.941623670652389]
本報告ではPRCVチャレンジの方法論について概説する。
シナリオの認知と意思決定に重点を置いています。
我々のモデルは0.6064のスコアを獲得し、競技の最終結果の最初の賞を確保した。
論文 参考訳(メタデータ) (2024-11-05T11:00:55Z) - Towards Efficient Pareto Set Approximation via Mixture of Experts Based Model Fusion [53.33473557562837]
大規模深層ニューラルネットワークに対する多目的最適化問題を解くことは、損失ランドスケープの複雑さと高価な計算コストのために難しい課題である。
本稿では,専門家(MoE)をベースとしたモデル融合を用いて,この問題を実用的でスケーラブルに解決する手法を提案する。
特殊な単一タスクモデルの重みをまとめることで、MoEモジュールは複数の目的間のトレードオフを効果的に捉えることができる。
論文 参考訳(メタデータ) (2024-06-14T07:16:18Z) - Inter-slice Super-resolution of Magnetic Resonance Images by Pre-training and Self-supervised Fine-tuning [49.197385954021456]
臨床実践では、2次元磁気共鳴(MR)シーケンスが広く採用されている。個々の2次元スライスを積み重ねて3次元ボリュームを形成できるが、比較的大きなスライスススペーシングは可視化とその後の解析タスクに課題をもたらす可能性がある。
スライス間隔を低減するため,ディープラーニングに基づく超解像技術が広く研究されている。
現在のほとんどのソリューションは、教師付きトレーニングのために、かなりの数の高解像度と低解像度の画像を必要とするが、通常は現実のシナリオでは利用できない。
論文 参考訳(メタデータ) (2024-06-10T02:20:26Z) - RL-I2IT: Image-to-Image Translation with Deep Reinforcement Learning [54.40719981158774]
画像から画像への変換(I2IT)手法は,ディープラーニング(DL)モデルの単一実行時に画像を生成する。
深部強化学習(DRL)によるステップワイド意思決定問題としてI2ITを再構成する。
RLベースのI2IT(RL-I2IT)を実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-24T15:40:40Z) - No Data Augmentation? Alternative Regularizations for Effective Training
on Small Datasets [0.0]
我々は、小さな画像分類データセットにおける教師あり学習の限界を推し進めるために、代替正規化戦略について研究する。
特に,モデルパラメータのノルムを通した最適学習率と重み減衰対の選択に非依存を用いる。
テスト精度は66.5%に達し、最先端の手法に匹敵する。
論文 参考訳(メタデータ) (2023-09-04T16:13:59Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Multi-Scale Aligned Distillation for Low-Resolution Detection [68.96325141432078]
本稿では,高分解能モデルや多分解能モデルから知識を抽出することで,低分解能モデルの性能を向上させることに焦点を当てる。
いくつかのインスタンスレベルの検出タスクとデータセットにおいて,本手法を用いて訓練された低解像度モデルと,従来のマルチスケールトレーニングによる訓練された高解像度モデルとを競合的に処理する。
論文 参考訳(メタデータ) (2021-09-14T12:53:35Z) - Ultra-Data-Efficient GAN Training: Drawing A Lottery Ticket First, Then
Training It Toughly [114.81028176850404]
限られたデータでGAN(generative adversarial network)を訓練すると、一般的に性能が低下し、モデルが崩壊する。
データハングリーGANトレーニングを2つのシーケンシャルサブプロブレムに分解する。
このような協調フレームワークにより、より低い複雑さとよりデータ効率のよいサブ問題に集中することができます。
論文 参考訳(メタデータ) (2021-02-28T05:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。