論文の概要: Dynamic Supervisor for Cross-dataset Object Detection
- arxiv url: http://arxiv.org/abs/2204.00183v1
- Date: Fri, 1 Apr 2022 03:18:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 23:43:58.922711
- Title: Dynamic Supervisor for Cross-dataset Object Detection
- Title(参考訳): クロスデータセットオブジェクト検出のための動的スーパーバイザ
- Authors: Ze Chen, Zhihang Fu, Jianqiang Huang, Mingyuan Tao, Shengyu Li,
Rongxin Jiang, Xiang Tian, Yaowu Chen and Xian-sheng Hua
- Abstract要約: オブジェクト検出タスクにおけるデータセット間のトレーニングは、データセットにまたがるカテゴリ内の不整合が、完全に教師付き学習を半教師付き学習に変換するため、複雑である。
本稿では,ハードラベルとソフトラベルを併用した複数更新サブモデルを用いて,アノテーションを複数回更新する動的スーパーバイザフレームワークを提案する。
最終生成アノテーションでは、ハードラベルトレーニングとソフトラベルトレーニングを統合することで、リコールと精度が大幅に向上した。
- 参考スコア(独自算出の注目度): 52.95818230087297
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of cross-dataset training in object detection tasks is
complicated because the inconsistency in the category range across datasets
transforms fully supervised learning into semi-supervised learning. To address
this problem, recent studies focus on the generation of high-quality missing
annotations. In this study, we first point out that it is not enough to
generate high-quality annotations using a single model, which only looks once
for annotations. Through detailed experimental analyses, we further conclude
that hard-label training is conducive to generating high-recall annotations,
while soft-label training tends to obtain high-precision annotations. Inspired
by the aspects mentioned above, we propose a dynamic supervisor framework that
updates the annotations multiple times through multiple-updated submodels
trained using hard and soft labels. In the final generated annotations, both
recall and precision improve significantly through the integration of
hard-label training with soft-label training. Extensive experiments conducted
on various dataset combination settings support our analyses and demonstrate
the superior performance of the proposed dynamic supervisor.
- Abstract(参考訳): オブジェクト検出タスクにおけるクロスデータセットトレーニングの応用は、データセット間のカテゴリ範囲の不整合が教師付き学習を半教師付き学習に変換するため、複雑である。
この問題に対処するために、近年の研究は、高品質な欠落アノテーションの生成に焦点を当てている。
本研究では,まず,単一モデルを用いて高品質なアノテーションを生成するだけでは十分ではないことを指摘した。
さらに,詳細な実験解析により,ハードラベル訓練はハイリコールアノテーションの生成に寄与するが,ソフトラベル訓練は高精度アノテーションを得る傾向があると結論づけた。
上記の側面に触発されて,ハードラベルとソフトラベルを用いてトレーニングされた複数更新サブモデルを通じてアノテーションを複数回更新する動的スーパーバイザフレームワークを提案する。
最終生成アノテーションでは、ハードラベルトレーニングとソフトラベルトレーニングを統合することで、リコールと精度が大幅に向上した。
様々なデータセットの組み合わせ設定に関する広範囲な実験を行い,提案する動的スーパーバイザの性能を実証した。
関連論文リスト
- TrajSSL: Trajectory-Enhanced Semi-Supervised 3D Object Detection [59.498894868956306]
Pseudo-labeling approach to semi-supervised learning は教師-学生の枠組みを採用する。
我々は、事前学習した動き予測モデルを活用し、擬似ラベル付きデータに基づいて物体軌跡を生成する。
提案手法は2つの異なる方法で擬似ラベル品質を向上する。
論文 参考訳(メタデータ) (2024-09-17T05:35:00Z) - An Effective Incorporating Heterogeneous Knowledge Curriculum Learning
for Sequence Labeling [9.237399190335598]
シーケンスラベリングタスクに特化して設計された2段階のカリキュラム学習(TCL)フレームワークを提案する。
このフレームワークは、データインスタンスを容易から困難に徐々に導入し、パフォーマンスとトレーニング速度の両方を改善することで、トレーニングを強化する。
論文 参考訳(メタデータ) (2024-02-21T05:04:29Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Weakly Supervised Video Salient Object Detection [79.51227350937721]
本稿では,relabeled relabeled "fixation guided scribble annotations" に基づく最初の弱教師付きビデオサリエント物体検出モデルを提案する。
効果的なマルチモーダル学習と長期時間文脈モデリングを実現するために,「アプレンス・モーション・フュージョン・モジュール」と双方向のConvLSTMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-06T09:48:38Z) - Towards Cross-Granularity Few-Shot Learning: Coarse-to-Fine
Pseudo-Labeling with Visual-Semantic Meta-Embedding [13.063136901934865]
少ないショットラーニングは、テスト時に少数のサンプルしか持たない、新しいカテゴリに迅速に適応することを目的としている。
本稿では,より困難なシナリオ,すなわちクロスグラニュラリティ・グラニュラリティ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラティヴ・グラニュラ
画像埋め込みの類似性に応じて,各粗いクラスを擬似微細クラスにグリーディクラスタリングすることで,詳細なデータ分布を近似する。
論文 参考訳(メタデータ) (2020-07-11T03:44:21Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z) - Learning from Imperfect Annotations [15.306536555936692]
現在、多くの機械学習システムは、大量の人間の注釈付きデータに基づいて訓練されている。
モデルトレーニングとアグリゲーションステップをマージすることを可能にする新しいエンドツーエンドフレームワークを提案する。
アノテーションを集約する現在の最先端アプローチに比べて、精度が最大25%向上していることを示す。
論文 参考訳(メタデータ) (2020-04-07T15:21:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。