論文の概要: CaSP: Class-agnostic Semi-Supervised Pretraining for Detection and
Segmentation
- arxiv url: http://arxiv.org/abs/2112.04966v1
- Date: Thu, 9 Dec 2021 14:54:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-10 14:57:07.140572
- Title: CaSP: Class-agnostic Semi-Supervised Pretraining for Detection and
Segmentation
- Title(参考訳): CaSP: 検出とセグメンテーションのためのクラス非依存セミスーパートレーニング
- Authors: Lu Qi, Jason Kuen, Zhe Lin, Jiuxiang Gu, Fengyun Rao, Dian Li, Weidong
Guo, Zhen Wen, Jiaya Jia
- Abstract要約: 本稿では,タスク固有性バランスを向上するために,クラス非依存型半教師付き事前学習(CaSP)フレームワークを提案する。
我々は3.6Mの未ラベルデータを用いて、ImageNetで規定されたオブジェクト検出のベースラインよりも4.7%の顕著なパフォーマンス向上を達成した。
- 参考スコア(独自算出の注目度): 60.28924281991539
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To improve instance-level detection/segmentation performance, existing
self-supervised and semi-supervised methods extract either very task-unrelated
or very task-specific training signals from unlabeled data. We argue that these
two approaches, at the two extreme ends of the task-specificity spectrum, are
suboptimal for the task performance. Utilizing too little task-specific
training signals causes underfitting to the ground-truth labels of downstream
tasks, while the opposite causes overfitting to the ground-truth labels. To
this end, we propose a novel Class-agnostic Semi-supervised Pretraining (CaSP)
framework to achieve a more favorable task-specificity balance in extracting
training signals from unlabeled data. Compared to semi-supervised learning,
CaSP reduces the task specificity in training signals by ignoring class
information in the pseudo labels and having a separate pretraining stage that
uses only task-unrelated unlabeled data. On the other hand, CaSP preserves the
right amount of task specificity by leveraging box/mask-level pseudo labels. As
a result, our pretrained model can better avoid underfitting/overfitting to
ground-truth labels when finetuned on the downstream task. Using 3.6M unlabeled
data, we achieve a remarkable performance gain of 4.7% over ImageNet-pretrained
baseline on object detection. Our pretrained model also demonstrates excellent
transferability to other detection and segmentation tasks/frameworks.
- Abstract(参考訳): インスタンスレベルの検出・分離性能を向上させるため、既存の自己教師型および半教師型手法は、ラベルなしデータから非常にタスク非関連またはタスク固有のトレーニング信号を抽出する。
これらの2つのアプローチは、タスク固有性スペクトルの2つの極端において、タスク性能に最適であると主張する。
タスク固有のトレーニング信号が少なすぎると、下流のタスクのグランドトルースラベルに過度に適合するが、逆はグランドトルースラベルに過度に適合する。
そこで本研究では,未ラベルデータから学習信号を抽出する際のタスク固有性バランスを改善するために,クラス非依存型半教師付き事前学習(CaSP)フレームワークを提案する。
半教師付き学習と比較して、CaSPは擬似ラベルのクラス情報を無視し、タスク非ラベルデータのみを使用する個別の事前学習段階を有することにより、訓練信号のタスク特異性を減少させる。
一方、caspはbox/maskレベルの擬似ラベルを利用することで、適切なタスク特異性を保持します。
その結果、下流タスクで微調整された場合、事前訓練されたモデルは、接地ラベルへの不適合/オーバーフィットを回避できる。
我々は3.6Mの未ラベルデータを用いて、ImageNetで規定されたオブジェクト検出のベースラインよりも4.7%の性能向上を達成した。
我々の事前訓練されたモデルは、他の検出およびセグメンテーションタスク/フレームワークへの優れた転送可能性を示す。
関連論文リスト
- Task Specific Pretraining with Noisy Labels for Remote Sensing Image Segmentation [18.598405597933752]
自己監督(Self-supervision)は、人造地理空間アノテーションの正確な量を減らすためのリモートセンシングツールを提供する。
本研究では,モデル事前学習のためのノイズの多いセマンティックセグメンテーションマップを提案する。
2つのデータセットから,ノイズラベルを用いたタスク固有教師付き事前学習の有効性が示唆された。
論文 参考訳(メタデータ) (2024-02-25T18:01:42Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - ProtoCon: Pseudo-label Refinement via Online Clustering and Prototypical
Consistency for Efficient Semi-supervised Learning [60.57998388590556]
ProtoConは信頼性に基づく疑似ラベル作成の新しい手法である。
ProtoConのオンライン版では、データセット全体のラベル履歴を1回のトレーニングサイクルで活用することができる。
最先端のデータセットよりも大幅に向上し、より高速に収束する。
論文 参考訳(メタデータ) (2023-03-22T23:51:54Z) - Label-Efficient Object Detection via Region Proposal Network
Pre-Training [58.50615557874024]
地域提案ネットワーク(RPN)に効果的な事前学習を提供するための簡単な事前学習タスクを提案する。
RPN事前学習のないマルチステージ検出器と比較して,本手法はダウンストリームタスク性能を継続的に改善することができる。
論文 参考訳(メタデータ) (2022-11-16T16:28:18Z) - Revisiting Pretraining for Semi-Supervised Learning in the Low-Label
Regime [15.863530936691157]
半教師付き学習(SSL)は、擬似ラベル付けによって大きなラベル付きデータを活用することでラベル付きデータの欠如に対処する。
近年の研究では、訓練済み重量の微調整(FT)をSSLと組み合わせて課題を緩和し、低ラベル体制においてより優れた結果を主張している。
論文 参考訳(メタデータ) (2022-05-06T03:53:25Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - Boosting the Performance of Semi-Supervised Learning with Unsupervised
Clustering [10.033658645311188]
学習中の間欠的にラベルを完全に無視することは,小サンプル体制における性能を著しく向上させることを示す。
本手法は,最先端のSSLアルゴリズムの高速化に有効であることを示す。
論文 参考訳(メタデータ) (2020-12-01T14:19:14Z) - Task-Aware Variational Adversarial Active Learning [42.334671410592065]
本稿では,タスク非依存のVAALを修飾するタスク対応可変逆数AL(TA-VAAL)を提案する。
提案するTA-VAALは、バランスの取れたラベルとバランスの取れないラベルの分類のための様々なベンチマークデータセットにおいて、最先端の性能を向上する。
論文 参考訳(メタデータ) (2020-02-11T22:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。