論文の概要: Guided Distillation for Semi-Supervised Instance Segmentation
- arxiv url: http://arxiv.org/abs/2308.02668v2
- Date: Thu, 14 Dec 2023 10:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-16 04:29:13.880398
- Title: Guided Distillation for Semi-Supervised Instance Segmentation
- Title(参考訳): 半改良インスタンスセグメンテーションのためのガイド蒸留法
- Authors: Tariq Berrada, Camille Couprie, Karteek Alahari, Jakob Verbeek
- Abstract要約: 本稿では,教師学生の蒸留モデルを大幅に改善するための新しい設計選択について述べる。
特に, 新規な「誘導燃焼」段階を導入することにより, 蒸留法の改善を図る。
学生モデルのバーンイン期間中に教師付きデータのみを使用する以前の研究とは対照的に,教師モデルの指導を用いて,バーンイン期間中にラベルなしデータを利用する。
- 参考スコア(独自算出の注目度): 29.688029979801577
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although instance segmentation methods have improved considerably, the
dominant paradigm is to rely on fully-annotated training images, which are
tedious to obtain. To alleviate this reliance, and boost results,
semi-supervised approaches leverage unlabeled data as an additional training
signal that limits overfitting to the labeled samples. In this context, we
present novel design choices to significantly improve teacher-student
distillation models. In particular, we (i) improve the distillation approach by
introducing a novel "guided burn-in" stage, and (ii) evaluate different
instance segmentation architectures, as well as backbone networks and
pre-training strategies. Contrary to previous work which uses only supervised
data for the burn-in period of the student model, we also use guidance of the
teacher model to exploit unlabeled data in the burn-in period. Our improved
distillation approach leads to substantial improvements over previous
state-of-the-art results. For example, on the Cityscapes dataset we improve
mask-AP from 23.7 to 33.9 when using labels for 10\% of images, and on the COCO
dataset we improve mask-AP from 18.3 to 34.1 when using labels for only 1\% of
the training data.
- Abstract(参考訳): インスタンスセグメンテーション法はかなり改善されているが、主流のパラダイムは、入手が難しい完全注釈付きトレーニングイメージに依存することである。
この信頼を緩和し、結果を高めるために、半教師付きアプローチはラベルなしのデータをラベル付きサンプルへの過剰適合を制限する追加のトレーニング信号として利用する。
そこで本研究では,教師・学生の蒸留モデルを大幅に改善するための新しい設計選択を提案する。
特に私たちは
(i)新しい「ガイド・バーンイン」ステージの導入による蒸留アプローチの改善、
(II) 異なるインスタンスセグメンテーションアーキテクチャ、およびバックボーンネットワークおよび事前学習戦略を評価する。
学生モデルのバーンイン期間に教師データのみを使用する従来の研究とは対照的に,教師モデルの指導を用いてバーンイン期間中にラベルなしデータを活用している。
蒸留法の改良は, 従来の技術結果よりも大幅に改善した。
例えば、Cityscapesデータセットでは、画像の10\%にラベルを使用する場合、マスクAPを23.7から33.9に改善し、COCOデータセットではトレーニングデータの1\%にラベルを使用する場合、マスクAPを18.3から34.1に改善します。
関連論文リスト
- Weakly Contrastive Learning via Batch Instance Discrimination and Feature Clustering for Small Sample SAR ATR [7.2932563202952725]
BIDFC(Batch Instance Discrimination and Feature Clustering)と呼ばれる新しいフレームワークを提案する。
本枠組みでは,SAR画像中の試料間の類似度が高いため,試料間の埋め込み距離は適度である。
移動・静止目標獲得・認識(MSTAR)データベースの実験結果から,3.13%のトレーニングデータに基づいて,本手法の91.25%の分類精度が得られた。
論文 参考訳(メタデータ) (2024-08-07T08:39:33Z) - Better (pseudo-)labels for semi-supervised instance segmentation [21.703173564795353]
本稿では,教師モデルの訓練プロセスを強化するための2段階戦略を導入し,数発の学習における性能を大幅に向上させる。
我々は,LVISデータセット上での最先端の教師付きベースライン性能に対して,平均精度(AP)が2.8%,レアクラスのAPが10.3%向上し,顕著な改善が見られた。
論文 参考訳(メタデータ) (2024-03-18T11:23:02Z) - Unsupervised Domain Adaptation for Semantic Segmentation with Pseudo
Label Self-Refinement [9.69089112870202]
擬似ラベルのオンライン精錬のための補助的擬似ラベル精錬ネットワーク(PRN)を提案する。
3つの異なるドメインシフトを持つベンチマークデータセットに対する我々のアプローチを評価する。
論文 参考訳(メタデータ) (2023-10-25T20:31:07Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Boosting Facial Expression Recognition by A Semi-Supervised Progressive
Teacher [54.50747989860957]
本稿では,信頼度の高いFERデータセットと大規模未ラベル表現画像を有効訓練に用いるための半教師付き学習アルゴリズム,Progressive Teacher (PT)を提案する。
RAF-DB と FERPlus を用いた実験により,RAF-DB で89.57% の精度で最先端の性能を実現する手法の有効性が検証された。
論文 参考訳(メタデータ) (2022-05-28T07:47:53Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Improving Semantic Segmentation via Self-Training [75.07114899941095]
半教師付きアプローチ,特に自己学習パラダイムを用いて,最先端の成果を得ることができることを示す。
まず、ラベル付きデータに基づいて教師モデルを訓練し、次にラベルなしデータの大規模なセット上で擬似ラベルを生成する。
私たちの堅牢なトレーニングフレームワークは、人名と擬似ラベルを共同で消化し、Cityscapes、CamVid、KITTIデータセット上で最高のパフォーマンスを達成することができます。
論文 参考訳(メタデータ) (2020-04-30T17:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。