論文の概要: InsCon:Instance Consistency Feature Representation via Self-Supervised
Learning
- arxiv url: http://arxiv.org/abs/2203.07688v1
- Date: Tue, 15 Mar 2022 07:09:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 14:51:55.693530
- Title: InsCon:Instance Consistency Feature Representation via Self-Supervised
Learning
- Title(参考訳): InsCon:自己教師付き学習によるインスタンスの一貫性特徴表現
- Authors: Junwei Yang, Ke Zhang, Zhaolin Cui, Jinming Su, Junfeng Luo, and
Xiaolin Wei
- Abstract要約: InsConという,マルチインスタンス情報を取得するための,エンドツーエンドの自己管理フレームワークを提案する。
InsConは、マルチインスタンスイメージを入力として適用し、学習した機能を対応するインスタンスビュー間で整合させるターゲット学習パラダイムを構築している。
一方、InsConでは、セルの一貫性を利用して微細な特徴表現を強化するセルインスタンスのプルとプッシュを導入している。
- 参考スコア(独自算出の注目度): 9.416267640069297
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature representation via self-supervised learning has reached remarkable
success in image-level contrastive learning, which brings impressive
performances on image classification tasks. While image-level feature
representation mainly focuses on contrastive learning in single instance, it
ignores the objective differences between pretext and downstream prediction
tasks such as object detection and instance segmentation. In order to fully
unleash the power of feature representation on downstream prediction tasks, we
propose a new end-to-end self-supervised framework called InsCon, which is
devoted to capturing multi-instance information and extracting cell-instance
features for object recognition and localization. On the one hand, InsCon
builds a targeted learning paradigm that applies multi-instance images as
input, aligning the learned feature between corresponding instance views, which
makes it more appropriate for multi-instance recognition tasks. On the other
hand, InsCon introduces the pull and push of cell-instance, which utilizes cell
consistency to enhance fine-grained feature representation for precise boundary
localization. As a result, InsCon learns multi-instance consistency on semantic
feature representation and cell-instance consistency on spatial feature
representation. Experiments demonstrate the method we proposed surpasses MoCo
v2 by 1.1% AP^{bb} on COCO object detection and 1.0% AP^{mk} on COCO instance
segmentation using Mask R-CNN R50-FPN network structure with 90k iterations,
2.1% APbb on PASCAL VOC objection detection using Faster R-CNN R50-C4 network
structure with 24k iterations.
- Abstract(参考訳): 自己教師付き学習による特徴表現は,画像レベルのコントラスト学習において顕著な成功を収めている。
画像レベルの特徴表現は、主に1つのインスタンスにおけるコントラスト学習に焦点を当てているが、オブジェクト検出やインスタンス分割のような、前文と下流予測タスクの客観的な違いを無視する。
下流予測タスクにおける特徴表現のパワーを完全に解き放つために,マルチインスタンス情報の取得と,オブジェクト認識とローカライゼーションのためのセル・インスタンス機能の抽出を専門とする,InsConというエンドツーエンドのセルフ教師付きフレームワークを提案する。
一方、InsConは、マルチインスタンスイメージを入力として適用し、学習した機能を対応するインスタンスビュー間で整合させるターゲット学習パラダイムを構築し、マルチインスタンス認識タスクにより適している。
一方、InsConでは、セルの整合性を利用して、きめ細かい特徴表現を強化し、正確な境界ローカライゼーションを実現する。
その結果、InsConは意味的特徴表現のマルチインスタンス一貫性と空間的特徴表現のセルインスタンス一貫性を学習した。
実験では,COCO オブジェクト検出における MoCo v2 を 1.1% AP^{bb} で上回り,Mask R-CNN R50-FPN ネットワーク構造を用いた COCO インスタンス分割では 1.0% AP^{mk} で90k繰り返し,PASCAL VOC オブジェクト検出では 2.1% APbb で24k反復で高速 R-CNN R50-C4 ネットワーク構造を用いた。
関連論文リスト
- Masked Momentum Contrastive Learning for Zero-shot Semantic
Understanding [39.424931953675994]
自己教師付き事前学習(SSP)は、ラベル付きデータなしで有意義な特徴表現を抽出できる機械学習の一般的な手法として登場した。
本研究は、コンピュータビジョンタスクにおける純粋な自己教師付き学習(SSL)技術の有効性を評価する。
論文 参考訳(メタデータ) (2023-08-22T13:55:57Z) - Semantics Meets Temporal Correspondence: Self-supervised Object-centric Learning in Videos [63.94040814459116]
自己教師付き手法は、高レベルの意味論と低レベルの時間対応の学習において顕著な進歩を見せている。
融合した意味特徴と対応地図の上に,意味認識型マスキングスロットアテンションを提案する。
我々は、時間的コヒーレントなオブジェクト中心表現を促進するために、セマンティックおよびインスタンスレベルの時間的一貫性を自己スーパービジョンとして採用する。
論文 参考訳(メタデータ) (2023-08-19T09:12:13Z) - Robust Representation Learning by Clustering with Bisimulation Metrics
for Visual Reinforcement Learning with Distractions [9.088460902782547]
Bisimulation Metrics (CBM) によるクラスタリングは、潜在空間における視覚的観察をグループ化することで、堅牢な表現を学習する。
CBMは,(1)実測距離を学習プロトタイプと測定することで観測をグループ化すること,(2)現在のクラスタ割り当てに従ってプロトタイプの集合を学習すること,の2つのステップを交互に行う。
実験により、CBMは一般的なビジュアルRLアルゴリズムのサンプル効率を大幅に改善することが示された。
論文 参考訳(メタデータ) (2023-02-12T13:27:34Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - UniVIP: A Unified Framework for Self-Supervised Visual Pre-training [50.87603616476038]
単一中心オブジェクトまたは非調和データセット上で,汎用的な視覚表現を学習するための,新しい自己教師型フレームワークを提案する。
大規模実験により、非高調波COCOで事前訓練されたUniVIPは、最先端の転送性能を実現することが示された。
また、ImageNetのような単一中心オブジェクトのデータセットを利用でき、線形探索において同じ事前学習エポックでBYOLを2.5%上回る。
論文 参考訳(メタデータ) (2022-03-14T10:04:04Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Information Maximization Clustering via Multi-View Self-Labelling [9.947717243638289]
本稿では,意味のある表現を同時に学習し,対応するアノテーションを割り当てる単一フェーズクラスタリング手法を提案する。
これは、離散表現をネットを通じて自己監督パラダイムに統合することで達成される。
実験の結果,提案手法は,平均精度89.1%,49.0%で最先端技術を上回ることがわかった。
論文 参考訳(メタデータ) (2021-03-12T16:04:41Z) - Unsupervised Pretraining for Object Detection by Patch Reidentification [72.75287435882798]
教師なし表現学習は、オブジェクトディテクタの事前トレーニング表現で有望なパフォーマンスを実現します。
本研究では,オブジェクト検出のための簡易かつ効果的な表現学習手法であるパッチ再識別(Re-ID)を提案する。
私たちの方法は、トレーニングの反復やデータパーセンテージなど、すべての設定でCOCOの同等を大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-08T15:13:59Z) - Dense Contrastive Learning for Self-Supervised Visual Pre-Training [102.15325936477362]
入力画像の2つのビュー間の画素レベルでの差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分差分)を最適化することにより自己教師学習を実現する。
ベースライン法であるMoCo-v2と比較すると,計算オーバーヘッドは1%遅かった。
論文 参考訳(メタデータ) (2020-11-18T08:42:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。