論文の概要: Frequency-Aware Self-Supervised Long-Tailed Learning
- arxiv url: http://arxiv.org/abs/2309.04723v2
- Date: Fri, 15 Sep 2023 12:46:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 17:25:18.710109
- Title: Frequency-Aware Self-Supervised Long-Tailed Learning
- Title(参考訳): 周波数対応型自己監督型長期学習
- Authors: Ci-Siang Lin, Min-Hung Chen, Yu-Chiang Frank Wang
- Abstract要約: 固有長周期分布を持つラベルのないデータから学習するための周波数対応自己監視学習(FASSL)を提案する。
まず, 周波数認識型プロトタイプを学習し, 関連する長い尾の分布を反映する。特にレアクラスのサンプルに着目し, 画像データと派生プロトタイプの関係を活用。
- 参考スコア(独自算出の注目度): 36.00672675332761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data collected from the real world typically exhibit long-tailed
distributions, where frequent classes contain abundant data while rare ones
have only a limited number of samples. While existing supervised learning
approaches have been proposed to tackle such data imbalance, the requirement of
label supervision would limit their applicability to real-world scenarios in
which label annotation might not be available. Without the access to class
labels nor the associated class frequencies, we propose Frequency-Aware
Self-Supervised Learning (FASSL) in this paper. Targeting at learning from
unlabeled data with inherent long-tailed distributions, the goal of FASSL is to
produce discriminative feature representations for downstream classification
tasks. In FASSL, we first learn frequency-aware prototypes, reflecting the
associated long-tailed distribution. Particularly focusing on rare-class
samples, the relationships between image data and the derived prototypes are
further exploited with the introduced self-supervised learning scheme.
Experiments on long-tailed image datasets quantitatively and qualitatively
verify the effectiveness of our learning scheme.
- Abstract(参考訳): 現実世界から収集されたデータは、典型的には長い尾の分布を示し、希少なものは限られた数のサンプルしか持たない。
このようなデータ不均衡に対処するために、既存の教師付き学習アプローチが提案されているが、ラベル管理の要件は、ラベルアノテーションが利用できない現実のシナリオに適用性を制限する。
本稿では,クラスラベルへのアクセスや関連するクラス周波数を使わずに,FASSL( Frequency-Aware Self-Supervised Learning)を提案する。
FASSLの目的は、下流の分類タスクのための差別的な特徴表現を作ることである。
FASSLでは、まず周波数対応のプロトタイプを学習し、関連する長い尾の分布を反映する。
特にレアクラスのサンプルに着目し,画像データと派生したプロトタイプの関係を自己教師付き学習方式によりさらに活用する。
学習手法の有効性を定量的・定性的に検証したロングテール画像データセット実験を行った。
関連論文リスト
- Continuous Contrastive Learning for Long-Tailed Semi-Supervised Recognition [50.61991746981703]
現在の最先端のLTSSLアプローチは、大規模な未ラベルデータに対して高品質な擬似ラベルに依存している。
本稿では,長期学習における様々な提案を統一する新しい確率的枠組みを提案する。
我々は、信頼度とスムーズな擬似ラベルを用いて、我々のフレームワークをラベルなしデータに拡張する、連続的コントラスト学習手法であるCCLを導入する。
論文 参考訳(メタデータ) (2024-10-08T15:06:10Z) - A Self-Supervised Learning Pipeline for Demographically Fair Facial Attribute Classification [3.5092955099876266]
本稿では,人口統計学的に公平な顔属性分類のための完全自己教師付きパイプラインを提案する。
我々は、事前訓練されたエンコーダ、多様なデータキュレーション技術、メタラーニングに基づく重み付きコントラスト学習を通じて、完全にラベル付けされていないデータを活用する。
論文 参考訳(メタデータ) (2024-07-14T07:11:57Z) - Generalized Semi-Supervised Learning via Self-Supervised Feature Adaptation [87.17768598044427]
従来の半教師付き学習は、ラベル付きデータとラベルなしデータの特徴分布が一貫したものであると仮定する。
本稿では,ラベル付きおよびラベルなしデータの分散によるSSL性能向上のための汎用フレームワークであるセルフ・スーパービジョン・フィーチャー・アダプテーション(SSFA)を提案する。
提案するSSFAは擬似ラベルベースのSSL学習者に適用可能であり,ラベル付き,ラベルなし,さらには目に見えない分布における性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-05-31T03:13:45Z) - Pseudo-Labeled Auto-Curriculum Learning for Semi-Supervised Keypoint
Localization [88.74813798138466]
オブジェクトのキーポイントのローカライズは、基本的な視覚的問題である。
キーポイントローカライゼーションネットワークの教師付き学習は、しばしば大量のデータを必要とする。
本稿では,一連の動的しきい値を持つ信頼度の高い擬似ラベルサンプルを自動的に選択する。
論文 参考訳(メタデータ) (2022-01-21T09:51:58Z) - Self-supervised Learning is More Robust to Dataset Imbalance [65.84339596595383]
データセット不均衡下での自己教師型学習について検討する。
既製の自己教師型表現は、教師型表現よりもクラス不均衡に対してすでに堅牢である。
我々は、不均衡なデータセット上でSSL表現品質を一貫して改善する、再重み付け正規化手法を考案した。
論文 参考訳(メタデータ) (2021-10-11T06:29:56Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。