論文の概要: Gated Self-supervised Learning For Improving Supervised Learning
- arxiv url: http://arxiv.org/abs/2301.05865v1
- Date: Sat, 14 Jan 2023 09:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 18:24:22.775755
- Title: Gated Self-supervised Learning For Improving Supervised Learning
- Title(参考訳): 指導型自己教師型学習と指導型学習
- Authors: Erland Hilman Fuadi, Aristo Renaldo Ruslim, Putu Wahyu Kusuma
Wardhana, Novanto Yudistira
- Abstract要約: 本稿では,複数の局所化可能な拡張法とゲーティング手法を組み合わせることで,画像分類のための自己教師型学習手法を提案する。
我々のアプローチでは、回転に加え、フリップとシャッフルのチャネル拡張を使用し、モデルがデータからリッチな特徴を学習することができる。
- 参考スコア(独自算出の注目度): 1.784933900656067
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In past research on self-supervised learning for image classification, the
use of rotation as an augmentation has been common. However, relying solely on
rotation as a self-supervised transformation can limit the ability of the model
to learn rich features from the data. In this paper, we propose a novel
approach to self-supervised learning for image classification using several
localizable augmentations with the combination of the gating method. Our
approach uses flip and shuffle channel augmentations in addition to the
rotation, allowing the model to learn rich features from the data. Furthermore,
the gated mixture network is used to weigh the effects of each self-supervised
learning on the loss function, allowing the model to focus on the most relevant
transformations for classification.
- Abstract(参考訳): 画像分類のための自己教師型学習に関する研究では, 回転を拡張として用いることが一般的であった。
しかし、自己教師付き変換としてローテーションのみに依存することは、モデルがデータからリッチな特徴を学ぶ能力を制限する可能性がある。
本稿では,ゲーティング法と組み合わせた複数の局所化拡張を用いた画像分類のための自己教師付き学習手法を提案する。
我々のアプローチでは、回転に加え、フリップとシャッフルのチャネル拡張を使用し、モデルがデータからリッチな特徴を学習することができる。
さらに、ゲート混合ネットワークは、各自己教師付き学習が損失関数に与える影響を測定するために使用され、モデルが分類の最も関連する変換に焦点を合わせることができる。
関連論文リスト
- AggSS: An Aggregated Self-Supervised Approach for Class-Incremental Learning [17.155759991260094]
本稿では,自己指導型学習,特に画像回転が様々なクラス増分学習パラダイムに与える影響について検討する。
AggSS戦略を通じて学習する本質的なオブジェクト特徴に対するディープニューラルネットワークの注目度の変化を観察する。
AggSSは、任意のクラス増分学習フレームワークにシームレスに組み込むことができるプラグイン・アンド・プレイモジュールとして機能する。
論文 参考訳(メタデータ) (2024-08-08T10:16:02Z) - Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - Class incremental learning with probability dampening and cascaded gated classifier [4.285597067389559]
本稿では, Margin Dampening と Cascaded Scaling という新たな漸進正規化手法を提案する。
1つ目は、ソフト制約と知識蒸留のアプローチを組み合わせて、過去の知識を保存し、新しいパターンを忘れることを可能にします。
提案手法は,複数のベンチマークにおいて,確立されたベースラインで良好に動作することを示す。
論文 参考訳(メタデータ) (2024-02-02T09:33:07Z) - Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - Class-Incremental Learning using Diffusion Model for Distillation and
Replay [5.0977390531431634]
クラス増分学習は、以前学習したクラスを忘れずに、段階的に新しいクラスを学習することを目的としている。
本稿では,クラス増分学習のための追加データ源として,事前訓練された安定拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-06-30T11:23:49Z) - Learnability Lock: Authorized Learnability Control Through Adversarial
Invertible Transformations [9.868558660605993]
本稿では,特殊なキーを持つ特定のデータセット上でモデルの学習可能性を制御するための「学習可能性ロック」という新しい概念を紹介し,検討する。
本稿では、画像から画像へのマッピングとみなすことができる対向的非可逆変換を提案し、データサンプルをわずかに修正し、視覚的特徴の無視可能な機械学習モデルによって「学習不能」になるようにする。
これにより、検出やリバースエンジニアリングが困難でありながら、単純な逆変換で学習性を簡単に復元できる。
論文 参考訳(メタデータ) (2022-02-03T17:38:11Z) - Long-tail Recognition via Compositional Knowledge Transfer [60.03764547406601]
末尾クラスの少数ショット問題に対処する長尾認識のための新しい戦略を導入する。
我々の目標は、情報に富んだ共通クラスから得られた知識を、意味的に類似しているがデータに富む稀なクラスに伝達することである。
実験結果から,本手法は稀なクラスにおいて,堅牢な共通クラス性能を維持しつつ,大幅な性能向上を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-13T15:48:59Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Attention Model Enhanced Network for Classification of Breast Cancer
Image [54.83246945407568]
AMENはマルチブランチ方式で、画素ワイドアテンションモデルとサブモジュールの分類で定式化される。
微妙な詳細情報に焦点を合わせるため、サンプル画像は、前枝から生成された画素対応の注目マップによって強化される。
3つのベンチマークデータセットで行った実験は、様々なシナリオにおいて提案手法の優位性を実証している。
論文 参考訳(メタデータ) (2020-10-07T08:44:21Z) - Guided Variational Autoencoder for Disentanglement Learning [79.02010588207416]
本稿では,潜在表現非絡み合い学習を行うことで,制御可能な生成モデルを学習できるアルゴリズム,Guided-VAEを提案する。
我々は、ガイド-VAEにおける教師なし戦略と教師なし戦略を設計し、バニラVAE上でのモデリングと制御能力の強化を観察する。
論文 参考訳(メタデータ) (2020-04-02T20:49:15Z) - PointAugment: an Auto-Augmentation Framework for Point Cloud
Classification [105.27565020399]
PointAugmentは、分類ネットワークをトレーニングする際のデータの多様性を強化するために、ポイントクラウドサンプルを自動的に最適化し、拡張する新しい自動拡張フレームワークである。
学習可能な点増分関数を、形状変換と点変位で定式化し、さらに、追加サンプルを採用するために、損失関数を慎重に設計する。
論文 参考訳(メタデータ) (2020-02-25T14:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。