論文の概要: Self-supervised Learning with Local Contrastive Loss for Detection and
Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2207.04398v1
- Date: Sun, 10 Jul 2022 06:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 07:41:13.130010
- Title: Self-supervised Learning with Local Contrastive Loss for Detection and
Semantic Segmentation
- Title(参考訳): 局所的コントラスト損失を伴う自己教師付き学習による検出と意味セグメンテーション
- Authors: Ashraful Islam, Ben Lundell, Harpreet Sawhney, Sudipta Sinha, Peter
Morales, Richard J. Radke
- Abstract要約: 本稿では,オブジェクト検出やセマンティックセグメンテーションといった半言語タスクに適した自己教師付き学習(SSL)手法を提案する。
我々は、同一画像の変換された画像の位置を表す自己学習特徴間の局所的な一貫性を強制する。LC-lossは、最小限のオーバーヘッドで既存の自己教師付き学習手法に追加することができる。
提案手法は,COCOオブジェクト検出では1.9%,PASCALVOC検出では1.4%,CityScapesセグメンテーションでは0.6%,既存の最先端SSLアプローチでは1.9%向上する。
- 参考スコア(独自算出の注目度): 9.711659088922838
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a self-supervised learning (SSL) method suitable for semi-global
tasks such as object detection and semantic segmentation. We enforce local
consistency between self-learned features, representing corresponding image
locations of transformed versions of the same image, by minimizing a
pixel-level local contrastive (LC) loss during training. LC-loss can be added
to existing self-supervised learning methods with minimal overhead. We evaluate
our SSL approach on two downstream tasks -- object detection and semantic
segmentation, using COCO, PASCAL VOC, and CityScapes datasets. Our method
outperforms the existing state-of-the-art SSL approaches by 1.9% on COCO object
detection, 1.4% on PASCAL VOC detection, and 0.6% on CityScapes segmentation.
- Abstract(参考訳): 本稿では,オブジェクト検出やセマンティクスセグメンテーションといった半グローバルタスクに適した自己教師付き学習(ssl)手法を提案する。
我々は,訓練中の画素レベルの局所的コントラスト(LC)損失を最小限に抑え,同一画像の変換された画像位置を表す自己学習特徴間の局所的一貫性を強制する。
LC-lossは、最小限のオーバーヘッドで既存の自己教師付き学習手法に追加することができる。
我々は、COCO、PASCAL VOC、CityScapesデータセットを用いて、オブジェクト検出とセマンティックセグメンテーションという2つの下流タスクに対するSSLアプローチを評価した。
提案手法は,COCOオブジェクト検出では1.9%,PASCALVOC検出では1.4%,CityScapesセグメンテーションでは0.6%,既存の最先端SSLアプローチでは1.9%向上した。
関連論文リスト
- Exploring Open-Vocabulary Semantic Segmentation without Human Labels [76.15862573035565]
我々は、既存の事前学習された視覚言語モデル(VL)を利用して意味的セグメンテーションモデルを訓練するZeroSegを提案する。
ZeroSegは、VLモデルで学んだ視覚概念をセグメントトークンの集合に蒸留することでこれを克服し、それぞれが対象画像の局所化領域を要約する。
提案手法は,他のゼロショットセグメンテーション法と比較して,同じトレーニングデータを用いた場合と比較して,最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T08:47:06Z) - De-coupling and De-positioning Dense Self-supervised Learning [65.56679416475943]
Dense Self-Supervised Learning (SSL)メソッドは、複数のオブジェクトでイメージを処理する際に、画像レベルの特徴表現を使用する際の制限に対処する。
本研究は, 層深度やゼロパディングに伴う受容野の増大によって生じる, 結合と位置バイアスに悩まされていることを示す。
我々はCOCOにおける本手法の利点と、オブジェクト分類、セマンティックセグメンテーション、オブジェクト検出のための新しい挑戦的ベンチマークであるOpenImage-MINIについて示す。
論文 参考訳(メタデータ) (2023-03-29T18:07:25Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Data-Limited Tissue Segmentation using Inpainting-Based Self-Supervised
Learning [3.7931881761831328]
プレテキストタスクを含む自己教師付き学習(SSL)メソッドは、ラベルなしデータを使用したモデルの最初の事前トレーニングによって、この要件を克服する可能性を示している。
ラベル限定シナリオにおけるCTとMRI画像のセグメンテーションにおける2つのSSL手法の有効性を評価する。
最適に訓練され,実装が容易なSSLセグメンテーションモデルは,ラベル制限シナリオにおけるMRIおよびCT組織セグメンテーションの古典的な手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-14T16:34:05Z) - Learning Where to Learn in Cross-View Self-Supervised Learning [54.14989750044489]
自己教師付き学習(SSL)は大きな進歩を遂げ、教師付き学習との大きなギャップを狭めた。
現在の方法では、埋め込みにピクセルの統一的なアグリゲーションを採用する。
本稿では,特徴の空間情報を適応的に集約する学習方法であるLearning Where to Learn(LEWEL)を提案する。
論文 参考訳(メタデータ) (2022-03-28T17:02:42Z) - Remote Sensing Images Semantic Segmentation with General Remote Sensing
Vision Model via a Self-Supervised Contrastive Learning Method [13.479068312825781]
リモートセマンティックセグメンテーションのためのGlobal style and Local matching Contrastive Learning Network (GLCNet)を提案する。
具体的には、画像レベルの表現をより良く学習するために、グローバルスタイルのコントラストモジュールが使用される。
コントラストモジュールにマッチするローカル特徴は、セマンティックセグメンテーションに有用なローカル領域の表現を学習するために設計されている。
論文 参考訳(メタデータ) (2021-06-20T03:03:40Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。