論文の概要: Towards End-to-end Semi-supervised Learning for One-stage Object
Detection
- arxiv url: http://arxiv.org/abs/2302.11299v1
- Date: Wed, 22 Feb 2023 11:35:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 15:21:11.492015
- Title: Towards End-to-end Semi-supervised Learning for One-stage Object
Detection
- Title(参考訳): 一段階物体検出のためのエンド・ツー・エンド半教師付き学習に向けて
- Authors: Gen Luo, Yiyi Zhou, Lei Jin, Xiaoshuai Sun, Rongrong Ji
- Abstract要約: 本稿では,高度な一段検出ネットワークYOLOv5の半教師付き学習に焦点を当てた。
そこで我々は,Multi-view Pseudo-label Refinement (MPR) とDecoupled Semi-supervised Optimization (DSO) の2つの革新的な設計を取り入れた新しい教師学習レシピOneTeacherを提案する。
特に、MPRは、拡張ビューリファインメントとグローバルビューフィルタリングによって擬似ラベルの品質を改善し、DSOは構造的な微調整とタスク固有の擬似ラベルによる共同最適化競合を処理する。
- 参考スコア(独自算出の注目度): 88.56917845580594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semi-supervised object detection (SSOD) is a research hot spot in computer
vision, which can greatly reduce the requirement for expensive bounding-box
annotations. Despite great success, existing progress mainly focuses on
two-stage detection networks like FasterRCNN, while the research on one-stage
detectors is often ignored. In this paper, we focus on the semi-supervised
learning for the advanced and popular one-stage detection network YOLOv5.
Compared with Faster-RCNN, the implementation of YOLOv5 is much more complex,
and the various training techniques used in YOLOv5 can also reduce the benefit
of SSOD. In addition to this challenge, we also reveal two key issues in
one-stage SSOD, which are low-quality pseudo-labeling and multi-task
optimization conflict, respectively. To address these issues, we propose a
novel teacher-student learning recipe called OneTeacher with two innovative
designs, namely Multi-view Pseudo-label Refinement (MPR) and Decoupled
Semi-supervised Optimization (DSO). In particular, MPR improves the quality of
pseudo-labels via augmented-view refinement and global-view filtering, and DSO
handles the joint optimization conflicts via structure tweaks and task-specific
pseudo-labeling. In addition, we also carefully revise the implementation of
YOLOv5 to maximize the benefits of SSOD, which is also shared with the existing
SSOD methods for fair comparison. To validate OneTeacher, we conduct extensive
experiments on COCO and Pascal VOC. The extensive experiments show that
OneTeacher can not only achieve superior performance than the compared methods,
e.g., 15.0% relative AP gains over Unbiased Teacher, but also well handle the
key issues in one-stage SSOD. Our source code is available at:
https://github.com/luogen1996/OneTeacher.
- Abstract(参考訳): 半教師付きオブジェクト検出(SSOD)はコンピュータビジョンにおけるホットスポットであり、高価なバウンディングボックスアノテーションの要求を大幅に削減することができる。
大きな成功にもかかわらず、既存の進歩は主にFasterRCNNのような2段階検出ネットワークに焦点を当てている。
本稿では,先進的で人気のある一段検出ネットワークYOLOv5の半教師付き学習に着目した。
Faster-RCNNと比較すると、YOLOv5の実装はずっと複雑であり、YOLOv5で使用される様々なトレーニング技術はSSODのメリットを減少させる。
この課題に加えて、低品質な擬似ラベルとマルチタスク最適化の競合である1段SSODの2つの重要な問題も明らかにした。
これらの課題に対処するために,Multi-view Pseudo-label Refinement (MPR) とDecoupled Semi-supervised Optimization (DSO) の2つの革新的な設計を持つ新しい教師学習レシピであるOneTeacherを提案する。
特に、MPRは、拡張ビューリファインメントとグローバルビューフィルタリングによって擬似ラベルの品質を改善し、DSOは構造的な微調整とタスク固有の擬似ラベルによる共同最適化競合を処理する。
また,既存の SSOD 手法と等価な比較のために共有されている SSOD の利点を最大化するために YOLOv5 の実装を慎重に修正する。
OneTeacherを検証するために,COCOとPascal VOCについて広範な実験を行った。
広範な実験により、OneTeacherは比較した手法よりも優れた性能を達成できるだけでなく、例えば、15.0%の相対APゲインがUnbiased Teacherよりも優れているだけでなく、ワンステージSSODの重要な問題にもうまく対応できることが示された。
ソースコードはhttps://github.com/luogen1996/oneteacher.com/で入手できます。
関連論文リスト
- HR-Pro: Point-supervised Temporal Action Localization via Hierarchical
Reliability Propagation [40.52832708232682]
PTAL(Point-supervised Temporal Action Localization)はラベル効率学習のための新たな研究方向である。
本稿では,Snippetレベルの識別学習とインスタンスレベルの完全性学習という,信頼性に配慮した2つの段階からなる階層的信頼性向上フレームワークを提案する。
私たちのHR-Proは、THUMOS14で平均60.3%の印象的なmAPを含む、複数の挑戦的なベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-08-24T07:19:11Z) - Active Teacher for Semi-Supervised Object Detection [80.10937030195228]
半教師対象検出(SSOD)のための能動教師と呼ばれる新しいアルゴリズムを提案する。
Active Teacherは、教師/学生のフレームワークを反復的なバージョンに拡張し、ラベルセットを部分的に段階的に拡張し、ラベルなし例の3つの重要な要素を評価する。
この設計により、Active Teacherは、擬似ラベルの品質を改善しながら、限られたラベル情報の効果を最大化することができる。
論文 参考訳(メタデータ) (2023-03-15T03:59:27Z) - Efficient Teacher: Semi-Supervised Object Detection for YOLOv5 [2.2290171169275492]
一段アンカーベースの検出器は、高品質または柔軟な擬似ラベルを生成する構造を欠いている。
Dense Detectorは、YOLOv5にインスパイアされた高密度サンプリング技術でRetinaNetを拡張するベースラインモデルである。
Pseudo Label Assigner は Dense Detector からより洗練された擬似ラベルを使用する。
Epoch Adaptorは、安定的で効率的なエンドツーエンドの半教師付きトレーニングスケジュールを可能にする方法である。
論文 参考訳(メタデータ) (2023-02-15T10:40:19Z) - Towards Discriminative and Transferable One-Stage Few-Shot Object
Detectors [3.9189402702217344]
Few-shot Object Detection (FSOD) は、少数のサンプルを与えられた新しいクラスを学習することでこの問題に対処することを目的としている。
2段と1段のFSODの性能差は, 主に識別性の弱いためである。
これらの制約に対処するため,高密度メタ検出器のための前景サンプル数を増大させるマルチウェイサポートトレーニング戦略であるFew-shot RetinaNet(FSRN)を提案する。
論文 参考訳(メタデータ) (2022-10-11T20:58:25Z) - A Weakly Supervised Learning Framework for Salient Object Detection via
Hybrid Labels [96.56299163691979]
本稿では,ハイブリッドラベル下でのSODタスクに焦点をあてる。
このタスクにおけるラベルノイズと量不均衡の問題に対処するため、我々は3つの洗練されたトレーニング戦略を持つ新しいパイプラインフレームワークを設計する。
5つのSODベンチマーク実験により,本手法は弱教師付き/非教師付き手法と競合する性能を示した。
論文 参考訳(メタデータ) (2022-09-07T06:45:39Z) - Decoupled Adversarial Contrastive Learning for Self-supervised
Adversarial Robustness [69.39073806630583]
頑健な表現学習のための対人訓練(AT)と教師なし表現学習のための自己教師型学習(SSL)は2つの活発な研究分野である。
Decoupled Adversarial Contrastive Learning (DeACL) と呼ばれる2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-22T06:30:44Z) - Self-Promoted Supervision for Few-Shot Transformer [178.52948452353834]
SUN(Self-promoted sUpervisioN)は視覚変換器(ViT)のための数発の学習フレームワークである
SUNは、数ショットの学習データセットでViTを事前トレーニングし、各パッチトークンを導くために、個別のロケーション固有の監視を生成する。
実験によると、ViTを使ったSUNは、ViTを使った他の数発の学習フレームワークを大幅に上回っており、CNNの最先端技術よりも高いパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-03-14T12:53:27Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。