論文の概要: Self-Supervised YOLO: Leveraging Contrastive Learning for Label-Efficient Object Detection
- arxiv url: http://arxiv.org/abs/2508.01966v1
- Date: Mon, 04 Aug 2025 00:27:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.135717
- Title: Self-Supervised YOLO: Leveraging Contrastive Learning for Label-Efficient Object Detection
- Title(参考訳): 自己監督型YOLO:ラベル効率の良い物体検出のためのコントラスト学習の活用
- Authors: Manikanta Kotthapalli, Reshma Bhatia, Nainsi Jain,
- Abstract要約: YOLOファミリーのような一段階の物体検出器は、リアルタイム視覚応用において最先端の性能を達成する。
本稿では、この依存を減らす手段として、コントラスト型自己教師学習(SSL)を体系的に研究する。
このアプローチでは、YOLOの畳み込みバックボーンをエンコーダとして適応する、シンプルで効果的なパイプラインを導入しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: One-stage object detectors such as the YOLO family achieve state-of-the-art performance in real-time vision applications but remain heavily reliant on large-scale labeled datasets for training. In this work, we present a systematic study of contrastive self-supervised learning (SSL) as a means to reduce this dependency by pretraining YOLOv5 and YOLOv8 backbones on unlabeled images using the SimCLR framework. Our approach introduces a simple yet effective pipeline that adapts YOLO's convolutional backbones as encoders, employs global pooling and projection heads, and optimizes a contrastive loss using augmentations of the COCO unlabeled dataset (120k images). The pretrained backbones are then fine-tuned on a cyclist detection task with limited labeled data. Experimental results show that SSL pretraining leads to consistently higher mAP, faster convergence, and improved precision-recall performance, especially in low-label regimes. For example, our SimCLR-pretrained YOLOv8 achieves a mAP@50:95 of 0.7663, outperforming its supervised counterpart despite using no annotations during pretraining. These findings establish a strong baseline for applying contrastive SSL to one-stage detectors and highlight the potential of unlabeled data as a scalable resource for label-efficient object detection.
- Abstract(参考訳): YOLOファミリーのような一段階のオブジェクト検出器は、リアルタイムビジョンアプリケーションにおいて最先端のパフォーマンスを達成するが、トレーニングのために大規模なラベル付きデータセットに大きく依存している。
そこで本研究では, YOLOv5 と YOLOv8 のバックボーンをSimCLR フレームワークを用いてラベル付き画像に事前学習することにより, この依存性を低減する手段として, 対照的な自己教師付き学習(SSL)を体系的に研究する。
このアプローチでは、YOLOの畳み込みバックボーンをエンコーダとして適用し、グローバルプーリングとプロジェクションヘッドを採用し、COCO未ラベルデータセット(120k画像)の強化によるコントラスト損失を最適化する、シンプルで効果的なパイプラインを導入している。
トレーニング済みのバックボーンは、限られたラベル付きデータでサイクリスト検出タスクに微調整される。
実験の結果,SSLプリトレーニングにより,特に低ラベル状態において,mAPが一貫して向上し,収束速度が向上し,精度が向上した。
例えば、SimCLRで事前トレーニングされたYOLOv8はmAP@50:95で0.7663を達成しています。
これらの結果は,一段検出器にコントラッシブSSLを適用するための強力なベースラインを確立し,ラベル効率の高いオブジェクト検出のためのスケーラブルなリソースとしてラベル付きデータの可能性を強調した。
関連論文リスト
- Revisiting semi-supervised learning in the era of foundation models [28.414667991336067]
半教師付き学習(SSL)は、ラベル付きデータとともに豊富なラベル付きデータを活用して学習を強化する。
我々は,凍結視覚基盤モデル(VFM)が性能的に劣るSSLベンチマークデータセットを開発し,代表的なSSLメソッドを体系的に評価する。
ラベル付きデータのみを用いたパラメータ効率細調整(PEFT)は、ラベルなしデータを活用することなく、SSLのパフォーマンスとよく一致します。
ノイズの多い擬似ラベルの悪名高い問題を克服するため,より堅牢な擬似ラベルを生成するために,複数のPEFTアプローチとVFMバックボーンのアンサンブルを提案する。
論文 参考訳(メタデータ) (2025-03-12T18:01:10Z) - Teach YOLO to Remember: A Self-Distillation Approach for Continual Object Detection [5.6148728159802035]
YOLOのようなリアルタイムオブジェクト検出器は、複数のエポックのための大規模なデータセットでトレーニングされた場合、例外的なパフォーマンスを達成する。
データが徐々に到着する現実のシナリオでは、ニューラルネットワークは破滅的な忘れに苦しむ。
YOLOを用いた連続物体検出に適した自己蒸留法であるYOLO LwFを紹介する。
論文 参考訳(メタデータ) (2025-03-06T18:31:41Z) - Semi-Supervised One-Shot Imitation Learning [83.94646047695412]
ワンショットのImitation Learningは、AIエージェントに1つのデモから新しいタスクを学ぶ能力を持たせることを目的としている。
我々は,学習エージェントにトラジェクトリの大規模なデータセットを提示する,半教師付きOSIL問題設定を導入する。
我々は,この半教師付きOSIL設定に適用可能なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-08-09T18:11:26Z) - Hypergraph Self-supervised Learning with Sampling-efficient Signals [36.670771080732486]
自己教師付き学習(SSL)は、高額なラベルなしでハイパーグラフ上で表現学習を行うための有望な代替手段を提供する。
既存のハイパーグラフSSLモデルは、主にインスタンスレベルの識別戦略と対照的な手法に基づいている。
3つのサンプリング効率の自己教師型信号を持つハイパーグラフSSLフレームワークであるSE-HSSLを提案する。
論文 参考訳(メタデータ) (2024-04-18T01:14:50Z) - Class Imbalance in Object Detection: An Experimental Diagnosis and Study
of Mitigation Strategies [0.5439020425818999]
本研究は, YOLOv5単段検出器を用いて, 前地上クラス不均衡問題に対処するベンチマークフレームワークを提案する。
我々は,サンプリング,損失重み付け,データ強化という3つの確立した手法を精査した。
比較分析の結果,2段階検出法では有効であるが,YOLOv5の性能向上には有効ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-11T19:06:04Z) - Semi-Supervised Class-Agnostic Motion Prediction with Pseudo Label
Regeneration and BEVMix [59.55173022987071]
クラス非依存動作予測のための半教師あり学習の可能性について検討する。
我々のフレームワークは一貫性に基づく自己学習パラダイムを採用しており、ラベルのないデータからモデルを学習することができる。
本手法は,弱さと完全教師付き手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-12-13T09:32:50Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。