論文の概要: MixMask: Revisiting Masked Siamese Self-supervised Learning in
Asymmetric Distance
- arxiv url: http://arxiv.org/abs/2210.11456v1
- Date: Thu, 20 Oct 2022 17:54:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:21:53.932025
- Title: MixMask: Revisiting Masked Siamese Self-supervised Learning in
Asymmetric Distance
- Title(参考訳): MixMask:非対称距離におけるマスクシームの自己教師型学習の再考
- Authors: Kirill Vishniakov and Eric Xing and Zhiqiang Shen
- Abstract要約: 画像のランダムに消去された領域による情報損失を防止するために,MixMaskと呼ばれる補充型マスキング方式を提案する。
提案手法により, 線形探索, 半教師付き, 教師付き微調整の精度が向上し, 最先端のMSCNよりも大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 24.20212182301359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in self-supervised learning integrate Masked Modeling and
Siamese Networks into a single framework to fully reap the advantages of both
the two techniques. However, previous erasing-based masking scheme in masked
image modeling is not originally designed for siamese networks. Existing
approaches simply inherit the default loss design from previous siamese
networks, and ignore the information loss and distance change after employing
masking operation in the frameworks. In this paper, we propose a filling-based
masking strategy called MixMask to prevent information loss due to the randomly
erased areas of an image in vanilla masking method. We further introduce a
dynamic loss function design with soft distance to adapt the integrated
architecture and avoid mismatches between transformed input and objective in
Masked Siamese ConvNets (MSCN). The dynamic loss distance is calculated
according to the proposed mix-masking scheme. Extensive experiments are
conducted on various datasets of CIFAR-100, Tiny-ImageNet and ImageNet-1K. The
results demonstrate that the proposed framework can achieve better accuracy on
linear probing, semi-supervised and {supervised finetuning}, which outperforms
the state-of-the-art MSCN by a significant margin. We also show the superiority
on downstream tasks of object detection and segmentation. Our source code is
available at https://github.com/LightnessOfBeing/MixMask.
- Abstract(参考訳): 近年の自己教師型学習は,Masked ModelingとSiamese Networksをひとつのフレームワークに統合し,両者の利点を完全に享受している。
しかし、マスク画像モデリングにおける過去の消去に基づくマスキング方式は、もともとシアムネットワークのために設計されていない。
既存のアプローチは、従来のシアムネットワークからデフォルトの損失設計を継承し、フレームワークでマスキング操作を採用した後の情報損失と距離変化を無視する。
本論文では,バニラマスキング法において,画像のランダム消去領域による情報損失を防止するため,mixmaskと呼ばれる充填型マスキング戦略を提案する。
さらに,MSCN(Masked Siamese ConvNets)において,統合アーキテクチャをソフト距離で適用し,変換された入力と目的とのミスマッチを回避するために,動的損失関数の設計を導入する。
提案した混合マスキング方式により動的損失距離を算出する。
CIFAR-100、Tiny-ImageNet、ImageNet-1Kの様々なデータセットで大規模な実験が行われた。
提案手法により, 線形探索, 半教師付き, 教師付き微調整の精度が向上し, 最先端のMSCNよりも大幅に向上することが実証された。
また,オブジェクト検出とセグメンテーションの下流タスクにおける優越性を示す。
ソースコードはhttps://github.com/lightnessofbeing/mixmaskで入手できます。
関連論文リスト
- ColorMAE: Exploring data-independent masking strategies in Masked AutoEncoders [53.3185750528969]
Masked AutoEncoders (MAE)は、堅牢な自己管理フレームワークとして登場した。
データに依存しないColorMAEという手法を導入し、ランダムノイズをフィルタすることで異なる二元マスクパターンを生成する。
ランダムマスキングと比較して,下流タスクにおける戦略の優位性を示す。
論文 参考訳(メタデータ) (2024-07-17T22:04:00Z) - Variance-insensitive and Target-preserving Mask Refinement for
Interactive Image Segmentation [68.16510297109872]
ポイントベースのインタラクティブなイメージセグメンテーションは、セマンティックセグメンテーションや画像編集といったアプリケーションにおけるマスクアノテーションの負担を軽減することができる。
本稿では,ユーザ入力の少ないセグメンテーション品質を向上する新しい手法である可変無感・ターゲット保存マスクリファインメントを提案する。
GrabCut、バークレー、SBD、DAVISデータセットの実験は、インタラクティブな画像セグメンテーションにおける我々の手法の最先端性能を実証している。
論文 参考訳(メタデータ) (2023-12-22T02:31:31Z) - Masking Improves Contrastive Self-Supervised Learning for ConvNets, and Saliency Tells You Where [63.61248884015162]
我々は、畳み込みニューラルネットワークのためのコントラスト学習フレームワークにマスキング操作を組み込むことの負担を軽減することを目的としている。
マスクされた領域が、前景と背景の間に均等に分散されていることを考慮し、塩分濃度の制約を明示的に考慮することを提案する。
論文 参考訳(メタデータ) (2023-09-22T09:58:38Z) - Unmasking Anomalies in Road-Scene Segmentation [18.253109627901566]
異常セグメンテーションはアプリケーションを駆動するための重要なタスクである。
本稿では,画素単位の分類からマスク分類へのシフトによるパラダイム変化を提案する。
Mask2Anomalyはマスク分類アーキテクチャに異常検出手法を統合する可能性を示した。
論文 参考訳(メタデータ) (2023-07-25T08:23:10Z) - Mask to reconstruct: Cooperative Semantics Completion for Video-text
Retrieval [19.61947785487129]
Mask for Semantics Completion (MASCOT) - 意味に基づくマスキングモデル。
我々のMASCOTは4つの主要なテキストビデオ検索ベンチマークで最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-05-13T12:31:37Z) - GD-MAE: Generative Decoder for MAE Pre-training on LiDAR Point Clouds [72.60362979456035]
Masked Autoencoders (MAE)は、大規模な3Dポイントクラウドでの探索が難しい。
我々は,周囲のコンテキストを自動的にマージするためのtextbfGenerative textbfDecoder for MAE (GD-MAE)を提案する。
提案手法の有効性を, KITTI と ONCE の2つの大規模ベンチマークで実証した。
論文 参考訳(メタデータ) (2022-12-06T14:32:55Z) - Exploiting Shape Cues for Weakly Supervised Semantic Segmentation [15.791415215216029]
弱教師付きセマンティックセマンティックセグメンテーション (WSSS) は、画像レベルのラベルのみをトレーニング用として、画素単位のクラス予測を生成することを目的としている。
畳み込みニューラルネットワーク(CNN)のテクスチャバイアス特性を補うために形状情報を活用することを提案する。
我々は、クラスと色親和性の両方を考慮した新しい改良手法により、オンライン方式で予測をさらに洗練する。
論文 参考訳(メタデータ) (2022-08-08T17:25:31Z) - Self-Supervised Visual Representations Learning by Contrastive Mask
Prediction [129.25459808288025]
視覚表現学習のための新しいコントラストマスク予測(CMP)タスクを提案する。
MaskCoは、ビューレベルの機能ではなく、リージョンレベルの機能と対比している。
我々は、ImageNet以外のデータセットのトレーニングでMaskCoを評価し、そのパフォーマンスをMoCo V2と比較した。
論文 参考訳(メタデータ) (2021-08-18T02:50:33Z) - Image Inpainting by End-to-End Cascaded Refinement with Mask Awareness [66.55719330810547]
任意の欠落領域を塗りつぶすことは、様々なマスクされた領域で有効な特徴を学ぶことは非自明だから難しい。
符号化フェーズにおける欠落領域のマルチスケール特徴を学習する新しいマスク対応インペイントソリューションを提案する。
私たちのフレームワークは、3つの公開データセットに関する広範な実験を通じて定量的および定性的に検証されます。
論文 参考訳(メタデータ) (2021-04-28T13:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。