論文の概要: SMCL: Saliency Masked Contrastive Learning for Long-tailed Recognition
- arxiv url: http://arxiv.org/abs/2406.02223v1
- Date: Tue, 4 Jun 2024 11:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 16:42:06.217924
- Title: SMCL: Saliency Masked Contrastive Learning for Long-tailed Recognition
- Title(参考訳): SMCL--長期学習のための塩分マスクドコントラスト学習-
- Authors: Sanglee Park, Seung-won Hwang, Jungmin So,
- Abstract要約: 本稿では,偏見予測の問題を緩和するために,相反学習を隠蔽するサリエンシを提案する。
我々のキーとなる考え方は、画像の重要な部分を塩分濃度検出を用いてマスキングし、対照的な学習を用いて、マスクされた画像を特徴空間の小さなクラスへ移動させることである。
実験結果から,提案手法は,ベンチマーク長尾データセット上での最先端性能を実現することが示された。
- 参考スコア(独自算出の注目度): 19.192861880360347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world data often follow a long-tailed distribution with a high imbalance in the number of samples between classes. The problem with training from imbalanced data is that some background features, common to all classes, can be unobserved in classes with scarce samples. As a result, this background correlates to biased predictions into ``major" classes. In this paper, we propose saliency masked contrastive learning, a new method that uses saliency masking and contrastive learning to mitigate the problem and improve the generalizability of a model. Our key idea is to mask the important part of an image using saliency detection and use contrastive learning to move the masked image towards minor classes in the feature space, so that background features present in the masked image are no longer correlated with the original class. Experiment results show that our method achieves state-of-the-art level performance on benchmark long-tailed datasets.
- Abstract(参考訳): 実世界のデータは、しばしばクラス間のサンプル数に高い不均衡を持つ長い尾の分布に従う。
不均衡なデータからトレーニングする際の問題は、すべてのクラスに共通するいくつかのバックグラウンド機能は、サンプルの少ないクラスでは観測できないことだ。
結果として、この背景はバイアスのある予測を `major' クラスに関連付けている。
本稿では,サリエンシマスキングとコントラストラーニングを用いて問題を緩和し,モデルの一般化性を向上させる新しい手法である,サリエンシマスキングによるコントラストラーニングを提案する。
我々のキーとなる考え方は、画像の重要な部分を塩分濃度検出を用いてマスキングし、コントラスト学習を用いて特徴空間内の小さなクラスに向けてマスク画像を動かすことで、マスク画像に現れる背景特徴が元のクラスと相関しないようにすることである。
実験の結果,提案手法は,ベンチマーク長尾データセット上での最先端性能を実現することがわかった。
関連論文リスト
- Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Supervised Contrastive Learning on Blended Images for Long-tailed
Recognition [32.876647081080655]
実世界のデータは長い尾の分布を持ち、クラス毎のサンプル数はトレーニングクラスで等しくありません。
本稿では,潜在特徴空間のバランスをとるために,新しい長尾認識手法を提案する。
論文 参考訳(メタデータ) (2022-11-22T01:19:00Z) - Constructing Balance from Imbalance for Long-tailed Image Recognition [50.6210415377178]
多数派(頭)クラスと少数派(尾)クラスの不均衡は、データ駆動のディープニューラルネットワークを著しく歪ませる。
従来の手法では、データ分散、特徴空間、モデル設計の観点からデータ不均衡に対処していた。
ラベル空間を段階的に調整し,ヘッドクラスとテールクラスを分割することで,簡潔なパラダイムを提案する。
提案モデルでは,特徴評価手法も提供し,長期的特徴学習の道を開く。
論文 参考訳(メタデータ) (2022-08-04T10:22:24Z) - Constrained Deep One-Class Feature Learning For Classifying Imbalanced
Medical Images [4.211466076086617]
データの不均衡問題に対処するために、一級分類が注目を集めている。
本稿では,コンパクトな特徴を学習するための新しい深層学習手法を提案する。
提案手法は,各クラスに関連するより関連性の高い特徴を学習し,多数派と少数派のサンプルを識別しやすくする。
論文 参考訳(メタデータ) (2021-11-20T15:25:24Z) - Improving Tail-Class Representation with Centroid Contrastive Learning [145.73991900239017]
本稿では,長い尾を持つ表現学習を改善するために,補間型セントロイドコントラスト学習(ICCL)を提案する。
ICCLは、クラス別サンプルとクラス別サンプルの2つの画像を補間し、ICCLの表現が両方のソースクラスのセントロイドを取得するために使用されるようにモデルを訓練する。
我々の結果は、現実世界の長い尾の分布を持つiNaturalist 2018データセットで2.8%の精度向上を示した。
論文 参考訳(メタデータ) (2021-10-19T15:24:48Z) - STAR: Noisy Semi-Supervised Transfer Learning for Visual Classification [0.8662293148437356]
半教師付き学習(SSL)は、大規模なラベルなしデータの活用に有効であることが証明されている。
最近のSSLメソッドは、数十億のスケールでラベル付けされていないイメージデータに依存している。
本稿では,移動学習と自己学習を統合した半教師あり半教師ありトランスファー学習を提案する。
論文 参考訳(メタデータ) (2021-08-18T19:35:05Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Background Splitting: Finding Rare Classes in a Sea of Background [55.03789745276442]
我々は,少数の稀なカテゴリの画像分類のための,高精度な深層モデルの訓練という現実的な問題に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
論文 参考訳(メタデータ) (2020-08-28T23:05:15Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。