論文の概要: Dynamic Scale Training for Object Detection
- arxiv url: http://arxiv.org/abs/2004.12432v2
- Date: Sun, 14 Mar 2021 05:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 13:34:48.805422
- Title: Dynamic Scale Training for Object Detection
- Title(参考訳): 物体検出のための動的スケールトレーニング
- Authors: Yukang Chen, Peizhen Zhang, Zeming Li, Yanwei Li, Xiangyu Zhang, Lu
Qi, Jian Sun, and Jiaya Jia
- Abstract要約: 本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
- 参考スコア(独自算出の注目度): 111.33112051962514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a Dynamic Scale Training paradigm (abbreviated as DST) to mitigate
scale variation challenge in object detection. Previous strategies like image
pyramid, multi-scale training, and their variants are aiming at preparing
scale-invariant data for model optimization. However, the preparation procedure
is unaware of the following optimization process that restricts their
capability in handling the scale variation. Instead, in our paradigm, we use
feedback information from the optimization process to dynamically guide the
data preparation. The proposed method is surprisingly simple yet obtains
significant gains (2%+ Average Precision on MS COCO dataset), outperforming
previous methods. Experimental results demonstrate the efficacy of our proposed
DST method towards scale variation handling. It could also generalize to
various backbones, benchmarks, and other challenging downstream tasks like
instance segmentation. It does not introduce inference overhead and could serve
as a free lunch for general detection configurations. Besides, it also
facilitates efficient training due to fast convergence. Code and models are
available at github.com/yukang2017/Stitcher.
- Abstract(参考訳): 本稿では,オブジェクト検出におけるスケール変動問題を軽減するための動的スケールトレーニングパラダイム(DST)を提案する。
画像ピラミッドやマルチスケールトレーニングといったこれまでの戦略は、モデル最適化のためのスケール不変データを準備することを目的としていた。
しかし, 提案手法は, スケール変動の処理能力を制限する, 以下の最適化プロセスに気付かない。
代わりに、我々のパラダイムでは、最適化プロセスからのフィードバック情報を使用して、データ準備を動的にガイドします。
提案手法は驚くほど単純であるが,従来の手法を上回っている(ms cocoデータセットの平均精度2%以上)。
実験により,提案手法のスケール変動処理に対する有効性を示した。
また、さまざまなバックボーン、ベンチマーク、およびインスタンスのセグメンテーションのようなダウンストリームタスクを一般化することもできる。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
さらに、高速収束による効率的なトレーニングも容易である。
コードとモデルはgithub.com/yukang2017/stitcherで入手できる。
関連論文リスト
- Exploring Learning Complexity for Downstream Data Pruning [9.526877053855998]
本稿では,学習複雑性(LC)を分類・回帰タスクのスコアリング機能として扱うことを提案する。
大規模言語モデルの微調整を行うため,本手法は安定収束による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-08T02:29:33Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Adaptive Optimization with Examplewise Gradients [23.504973357538418]
本稿では,機械学習のための勾配に基づく最適化手法の設計に対して,より汎用的なアプローチを提案する。
この新しいフレームワークでは、イテレーションは単一の見積もりではなく、パラメータごとの見積もりのバッチへのアクセスを前提としています。
これは、典型的な機械学習のセットアップで実際に利用できる情報を反映している。
論文 参考訳(メタデータ) (2021-11-30T23:37:01Z) - AdamP: Slowing Down the Slowdown for Momentum Optimizers on
Scale-invariant Weights [53.8489656709356]
正規化技術は現代の深層学習の恩恵である。
しかし、運動量を導入することで、スケール不変の重みに対する効果的なステップサイズが急速に小さくなることがしばしば見過ごされる。
本稿では,この2つの材料の組み合わせが,有効ステップサイズと準最適モデル性能の早期劣化につながることを検証した。
論文 参考訳(メタデータ) (2020-06-15T08:35:15Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Investigating Transferability in Pretrained Language Models [8.83046338075119]
本稿では,各事前学習層が伝達タスク性能に与える影響を簡易なアブレーション手法で判定する。
この手法により、BERTでは、下流GLUEタスクにおける高いプローブ性能を持つレイヤは、それらのタスクに対して高い精度で必要でも十分でもないことが分かる。
論文 参考訳(メタデータ) (2020-04-30T17:23:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。