論文の概要: Self-EMD: Self-Supervised Object Detection without ImageNet
- arxiv url: http://arxiv.org/abs/2011.13677v3
- Date: Mon, 22 Mar 2021 09:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:11:56.029967
- Title: Self-EMD: Self-Supervised Object Detection without ImageNet
- Title(参考訳): 自己EMD:イメージネットなしの自己監視対象検出
- Authors: Songtao Liu, Zeming Li, Jian Sun
- Abstract要約: 本稿では,オブジェクト検出のための自己教師付き表現学習手法であるSelf-EMDを提案する。
提案手法は,イメージネットのようなアイコンオブジェクト画像データセットの代わりに,COCOのようなラベルなしの非標準画像データセットを直接訓練する。
我々のFaster R-CNN(ResNet50-FPN)ベースラインはCOCO上で39.8%のmAPを達成した。
- 参考スコア(独自算出の注目度): 101.93417572349563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a novel self-supervised representation learning
method, Self-EMD, for object detection. Our method directly trained on
unlabeled non-iconic image dataset like COCO, instead of commonly used
iconic-object image dataset like ImageNet. We keep the convolutional feature
maps as the image embedding to preserve spatial structures and adopt Earth
Mover's Distance (EMD) to compute the similarity between two embeddings. Our
Faster R-CNN (ResNet50-FPN) baseline achieves 39.8% mAP on COCO, which is on
par with the state of the art self-supervised methods pre-trained on ImageNet.
More importantly, it can be further improved to 40.4% mAP with more unlabeled
images, showing its great potential for leveraging more easily obtained
unlabeled data. Code will be made available.
- Abstract(参考訳): 本稿では,物体検出のための新しい自己教師表現学習法であるself-emdを提案する。
提案手法は,イメージネットのようなアイコンオブジェクト画像データセットの代わりに,COCOのようなラベルなしの非標準画像データセットを直接訓練する。
畳み込み特徴写像を空間構造を保存するための画像埋め込みとして保持し、2つの埋め込み間の類似性を計算するために地球移動距離(emd)を採用する。
我々のFaster R-CNN(ResNet50-FPN)ベースラインはCOCO上で39.8%のmAPを達成した。
さらに重要なことは、よりラベルのない画像で40.4%のmAPに改善でき、より簡単に取得されたラベルのないデータを活用する大きな可能性を示している。
コードは利用可能になる。
関連論文リスト
- Self-Supervised Masked Digital Elevation Models Encoding for
Low-Resource Downstream Tasks [0.6374763930914523]
GeoAIは、何十年にもわたって収集されてきたデータのために、自己管理の方法論を活用することができる。
提案されたアーキテクチャは、ImageNetで事前トレーニングされたMasked Autoencoderである。
論文 参考訳(メタデータ) (2023-09-06T21:20:10Z) - T-MARS: Improving Visual Representations by Circumventing Text Feature Learning [99.3682210827572]
LAIONの画像の40%近くは、字幕と重なるテキストを含んでいるという、我々の観察に動機づけられた新しいデータフィルタリング手法を提案する。
我々のシンプルでスケーラブルなアプローチであるT-MARSは、テキストが残りの視覚的特徴を支配するペアのみをフィルタリングします。
論文 参考訳(メタデータ) (2023-07-06T16:59:52Z) - Read, look and detect: Bounding box annotation from image-caption pairs [2.0305676256390934]
本稿では,画像中のオブジェクトの特定とラベル付けを行う手法について,より弱い監督方法であるイメージ・キャプション・ペアを用いて提案する。
Flickr30k COCOを用いたフレーズグラウンドで47.51%のリコール@1スコアを達成し,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-06-09T12:23:20Z) - Exploring the Limits of Deep Image Clustering using Pretrained Models [1.1060425537315088]
本稿では,事前学習した特徴抽出器を利用してラベルなしで画像の分類を学習する手法を提案する。
本稿では,画像特徴間の関連性を学習する新たな目的について提案する。
論文 参考訳(メタデータ) (2023-03-31T08:56:29Z) - Self-Supervised Object Detection via Generative Image Synthesis [106.65384648377349]
本稿では,自己教師対象検出のための制御可能なGANを用いたエンドツーエンド分析合成フレームワークを提案する。
オブジェクトの合成と検出を学習するために、ボックスアノテーションを使用せずに、実世界のイメージのコレクションを使用します。
我々の研究は、制御可能なGAN画像合成という新しいパラダイムを導入することで、自己教師対象検出の分野を前進させる。
論文 参考訳(メタデータ) (2021-10-19T11:04:05Z) - DetCo: Unsupervised Contrastive Learning for Object Detection [64.22416613061888]
教師なしのコントラスト学習は,CNNを用いた画像表現学習において大きな成功を収めている。
我々は,グローバルイメージとローカルイメージパッチのコントラストをフルに検討する,DetCoという新しいコントラスト学習手法を提案する。
DetCoは1倍のスケジュールでMask RCNN-C4/FPN/RetinaNet上で1.6/1.2/1.0 APで教師付き手法を一貫して上回っている。
論文 参考訳(メタデータ) (2021-02-09T12:47:20Z) - DeepEMD: Differentiable Earth Mover's Distance for Few-Shot Learning [122.51237307910878]
我々は,画像領域間の最適なマッチングの新しい視点から,少数ショット画像分類法を開発した。
我々は、高密度画像表現間の構造距離を計算するために、Earth Mover's Distance (EMD) を用いている。
定式化において重要な要素の重みを生成するために,我々は相互参照機構を設計する。
論文 参考訳(メタデータ) (2020-03-15T08:13:16Z) - RGB-based Semantic Segmentation Using Self-Supervised Depth Pre-Training [77.62171090230986]
本稿では,任意の意味的RGBセグメンテーション手法の事前学習に使用できる,スケーラブルで自己管理の容易な手法を提案する。
特に、我々の事前学習アプローチでは、深度センサーを用いて得られるラベルを自動生成する。
提案したHNラベルによる自己教師付き事前学習が,ImageNetの事前学習にどのように応用できるかを示す。
論文 参考訳(メタデータ) (2020-02-06T11:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。