論文の概要: Dynamic Scale Training for Object Detection
- arxiv url: http://arxiv.org/abs/2004.12432v2
- Date: Sun, 14 Mar 2021 05:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:34:48.805422
- Title: Dynamic Scale Training for Object Detection
- Title(参考訳): 物体検出のための動的スケールトレーニング
- Authors: Yukang Chen, Peizhen Zhang, Zeming Li, Yanwei Li, Xiangyu Zhang, Lu
Qi, Jian Sun, and Jiaya Jia
- Abstract要約: 本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
- 参考スコア(独自算出の注目度): 111.33112051962514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Dynamic Scale Training paradigm (abbreviated as DST) to mitigate
scale variation challenge in object detection. Previous strategies like image
pyramid, multi-scale training, and their variants are aiming at preparing
scale-invariant data for model optimization. However, the preparation procedure
is unaware of the following optimization process that restricts their
capability in handling the scale variation. Instead, in our paradigm, we use
feedback information from the optimization process to dynamically guide the
data preparation. The proposed method is surprisingly simple yet obtains
significant gains (2%+ Average Precision on MS COCO dataset), outperforming
previous methods. Experimental results demonstrate the efficacy of our proposed
DST method towards scale variation handling. It could also generalize to
various backbones, benchmarks, and other challenging downstream tasks like
instance segmentation. It does not introduce inference overhead and could serve
as a free lunch for general detection configurations. Besides, it also
facilitates efficient training due to fast convergence. Code and models are
available at github.com/yukang2017/Stitcher.
- Abstract(参考訳): 本稿では,オブジェクト検出におけるスケール変動問題を軽減するための動的スケールトレーニングパラダイム(DST)を提案する。
画像ピラミッドやマルチスケールトレーニングといったこれまでの戦略は、モデル最適化のためのスケール不変データを準備することを目的としていた。
しかし, 提案手法は, スケール変動の処理能力を制限する, 以下の最適化プロセスに気付かない。
代わりに、我々のパラダイムでは、最適化プロセスからのフィードバック情報を使用して、データ準備を動的にガイドします。
提案手法は驚くほど単純であるが,従来の手法を上回っている(ms cocoデータセットの平均精度2%以上)。
実験により,提案手法のスケール変動処理に対する有効性を示した。
また、さまざまなバックボーン、ベンチマーク、およびインスタンスのセグメンテーションのようなダウンストリームタスクを一般化することもできる。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
さらに、高速収束による効率的なトレーニングも容易である。
コードとモデルはgithub.com/yukang2017/stitcherで入手できる。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - A Bayesian Approach to Data Point Selection [24.98069363998565]
データポイントの選択(DPS)は、ディープラーニングにおいて重要なトピックになりつつある。
既存のDPSへのアプローチは、主にバイレベル最適化(BLO)の定式化に基づいている。
DPSに対する新しいベイズ的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-06T09:04:13Z) - Adaptive Data Optimization: Dynamic Sample Selection with Scaling Laws [59.03420759554073]
本稿では,オンライン手法でデータ分散を最適化するアルゴリズムであるAdaptive Data Optimization (ADO)を導入する。
ADOは外部の知識やプロキシモデル、モデル更新の変更を必要としない。
ADOは、ドメインごとのスケーリング法則を使用して、トレーニング中の各ドメインの学習ポテンシャルを推定し、データ混合を調整する。
論文 参考訳(メタデータ) (2024-10-15T17:47:44Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - AdAdaGrad: Adaptive Batch Size Schemes for Adaptive Gradient Methods [17.043034606088234]
本稿では,AdAdaGradのスカラー変種AdAdaGradNormについて紹介する。
また,画像分類実験を行い,提案手法のメリットを強調した。
論文 参考訳(メタデータ) (2024-02-17T07:49:50Z) - Exploring Learning Complexity for Efficient Downstream Dataset Pruning [8.990878450631596]
既存のデータセットプルーニングメソッドでは、データセット全体のトレーニングが必要になる。
本稿では、DLC(Distorting-based Learning Complexity)という、単純で、新規で、トレーニング不要な難易度スコアを提案する。
本手法は,より高速に学習できるサンプルを少ないパラメータで学習できるという観察結果に動機付けられている。
論文 参考訳(メタデータ) (2024-02-08T02:29:33Z) - AdamP: Slowing Down the Slowdown for Momentum Optimizers on
Scale-invariant Weights [53.8489656709356]
正規化技術は現代の深層学習の恩恵である。
しかし、運動量を導入することで、スケール不変の重みに対する効果的なステップサイズが急速に小さくなることがしばしば見過ごされる。
本稿では,この2つの材料の組み合わせが,有効ステップサイズと準最適モデル性能の早期劣化につながることを検証した。
論文 参考訳(メタデータ) (2020-06-15T08:35:15Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。