論文の概要: Bootstrap Your Object Detector via Mixed Training
- arxiv url: http://arxiv.org/abs/2111.03056v1
- Date: Thu, 4 Nov 2021 17:58:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:41:54.776495
- Title: Bootstrap Your Object Detector via Mixed Training
- Title(参考訳): オブジェクト検出を混合トレーニングでブートストラップする
- Authors: Mengde Xu, Zheng Zhang, Fangyun Wei, Yutong Lin, Yue Cao, Stephen Lin,
Han Hu, Xiang Bai
- Abstract要約: MixTrainingはオブジェクト検出のための新しいトレーニングパラダイムであり、既存の検出器の性能を無償で向上させることができる。
異なる強度の増強を利用し、トレーニングに有害な特定のトレーニングサンプルの強い増強を除き、データ増強を強化する。
MixTrainingはCOCOデータセット上のさまざまな検出器間で一貫した改善をもたらす。
- 参考スコア(独自算出の注目度): 82.98619147880397
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce MixTraining, a new training paradigm for object detection that
can improve the performance of existing detectors for free. MixTraining
enhances data augmentation by utilizing augmentations of different strengths
while excluding the strong augmentations of certain training samples that may
be detrimental to training. In addition, it addresses localization noise and
missing labels in human annotations by incorporating pseudo boxes that can
compensate for these errors. Both of these MixTraining capabilities are made
possible through bootstrapping on the detector, which can be used to predict
the difficulty of training on a strong augmentation, as well as to generate
reliable pseudo boxes thanks to the robustness of neural networks to labeling
error. MixTraining is found to bring consistent improvements across various
detectors on the COCO dataset. In particular, the performance of Faster R-CNN
\cite{ren2015faster} with a ResNet-50 \cite{he2016deep} backbone is improved
from 41.7 mAP to 44.0 mAP, and the accuracy of Cascade-RCNN
\cite{cai2018cascade} with a Swin-Small \cite{liu2021swin} backbone is raised
from 50.9 mAP to 52.8 mAP. The code and models will be made publicly available
at \url{https://github.com/MendelXu/MixTraining}.
- Abstract(参考訳): オブジェクト検出のための新しいトレーニングパラダイムであるMixTrainingを導入し、既存の検出器の性能を無償で向上する。
MixTrainingは、トレーニングに有害な特定のトレーニングサンプルの強い強化を除き、異なる強度の強化を活用することで、データ拡張を強化する。
さらに、これらのエラーを補償できる擬似ボックスを組み込むことで、人間のアノテーションにおけるローカライズノイズやラベルの欠如に対処する。
これらのMixTraining機能はどちらも、検出器のブートストラップによって可能であり、強力な拡張トレーニングの難しさを予測したり、ニューラルネットワークの堅牢さとラベル付けエラーによる信頼性の高い疑似ボックスを生成するために使用できる。
MixTrainingはCOCOデータセット上のさまざまな検出器間で一貫した改善をもたらす。
特に、ResNet-50 \cite{he2016deep} バックボーンによる Faster R-CNN \cite{ren2015faster} のパフォーマンスは41.7 mAP から 44.0 mAP に改善され、Swin-Small \cite{liu2021swin} バックボーンによる Cascade-RCNN \cite{cai2018cascade} の精度は50.9 mAP から52.8 mAP に向上した。
コードとモデルは、 \url{https://github.com/MendelXu/MixTraining}で公開される。
関連論文リスト
- KAKURENBO: Adaptively Hiding Samples in Deep Neural Network Training [2.8804804517897935]
深層ニューラルネットワークのトレーニングにおいて,最も重要でないサンプルを隠蔽する手法を提案する。
我々は,学習プロセス全体への貢献に基づいて,与えられたエポックを除外するサンプルを適応的に見つける。
本手法は, ベースラインと比較して, 最大22%の精度でトレーニング時間を短縮できる。
論文 参考訳(メタデータ) (2023-10-16T06:19:29Z) - DE-CROP: Data-efficient Certified Robustness for Pretrained Classifiers [21.741026088202126]
そこで本研究では,いくつかのトレーニングサンプルを用いて,事前学習したモデルのロバスト性を証明する新しい手法を提案する。
提案手法は,各トレーニングサンプルに対応するクラス境界および補間標本を生成する。
複数のベンチマークデータセットのベースラインに対する大幅な改善と、課題のあるブラックボックス設定の下でも同様のパフォーマンスを報告しています。
論文 参考訳(メタデータ) (2022-10-17T10:41:18Z) - Learning from Data with Noisy Labels Using Temporal Self-Ensemble [11.245833546360386]
ディープニューラルネットワーク(DNN)はノイズラベルを記憶する膨大な能力を持つ。
現在最先端の手法では、損失の少ないサンプルを用いて二重ネットワークを訓練するコトレーニング方式が提案されている。
本稿では,単一のネットワークのみをトレーニングすることで,シンプルで効果的なロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-07-21T08:16:31Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - RecursiveMix: Mixed Learning with History [21.865332756486314]
RM(RecursiveMix)は、歴史的入力-予測-ラベル三重項を利用した混合サンプル学習パラダイムである。
ResNet-50に基づいて、RMはCIFAR100で$sim$3.2%、ImageNetで$sim$2.8%の分類精度を無視できない余分な計算/保存コストで改善した。
論文 参考訳(メタデータ) (2022-03-14T03:59:47Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - End-to-End Semi-Supervised Object Detection with Soft Teacher [63.26266730447914]
本稿では,従来の複雑な多段階法とは対照的に,終端から終端までの半教師付き物体検出手法を提案する。
提案手法は, 種々のラベル付け比において, 従来手法よりも大きなマージンで性能を向上する。
最先端のSwin Transformerベースの物体検出器では、検出精度を+1.5 mAPで大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-06-16T17:59:30Z) - PatchUp: A Regularization Technique for Convolutional Neural Networks [19.59198017238128]
畳み込みニューラルネットワーク(CNN)のための隠れ状態ブロックレベルの正規化手法であるPatchUpを提案する。
提案手法は,MixupやCutMixといった他の最先端混合手法で発生する多様体侵入問題に対するCNNモデルのロバスト性を改善する。
また、PatchUpはサンプルのアフィン変換をより一般化し、敵攻撃に対してより堅牢であることを示す。
論文 参考訳(メタデータ) (2020-06-14T04:28:11Z) - Dynamic R-CNN: Towards High Quality Object Detection via Dynamic
Training [70.2914594796002]
ラベル割り当て基準と回帰損失関数の形状を調整するための動的R-CNNを提案する。
我々はResNet-50-FPNベースラインを1.9%のAPと5.5%のAP$_90$で改善し、余分なオーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-04-13T15:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。