論文の概要: Improving Self-Supervised Learning by Characterizing Idealized
Representations
- arxiv url: http://arxiv.org/abs/2209.06235v1
- Date: Tue, 13 Sep 2022 18:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:04:06.842482
- Title: Improving Self-Supervised Learning by Characterizing Idealized
Representations
- Title(参考訳): 理想化表現を特徴付ける自己教師あり学習の改善
- Authors: Yann Dubois and Tatsunori Hashimoto and Stefano Ermon and Percy Liang
- Abstract要約: 与えられたデータ拡張に不変なタスクに対して必要かつ十分な条件を証明します。
対照的に、我々のフレームワークは、従来の手法に対して単純だが重要な改善を規定している。
非コントラスト学習では、私たちのフレームワークを使って、シンプルで斬新な目的を導き出します。
- 参考スコア(独自算出の注目度): 155.1457170539049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the empirical successes of self-supervised learning (SSL) methods, it
is unclear what characteristics of their representations lead to high
downstream accuracies. In this work, we characterize properties that SSL
representations should ideally satisfy. Specifically, we prove necessary and
sufficient conditions such that for any task invariant to given data
augmentations, desired probes (e.g., linear or MLP) trained on that
representation attain perfect accuracy. These requirements lead to a unifying
conceptual framework for improving existing SSL methods and deriving new ones.
For contrastive learning, our framework prescribes simple but significant
improvements to previous methods such as using asymmetric projection heads. For
non-contrastive learning, we use our framework to derive a simple and novel
objective. Our resulting SSL algorithms outperform baselines on standard
benchmarks, including SwAV+multicrops on linear probing of ImageNet.
- Abstract(参考訳): 自己教師あり学習法(SSL)の実証的な成功にもかかわらず,その表現の特徴が下流の精度にどのような影響を及ぼすかは明らかでない。
本研究ではSSL表現が理想的に満足すべき特性を特徴付ける。
具体的には、与えられたデータ拡張に不変なタスクに対して、その表現に基づいて訓練された所望のプローブ(リニアまたはMLP)が完全な精度を達成するために必要な十分条件を証明する。
これらの要件は、既存のSSLメソッドを改善し、新しいものを引き出すための統一された概念的なフレームワークにつながります。
対照的な学習のために,本フレームワークは非対称プロジェクションヘッドなどの従来の手法に対して,単純だが重要な改善を規定する。
一貫性のない学習では、フレームワークを使って単純で斬新な目的を導出します。
結果として得られたSSLアルゴリズムは、ImageNetの線形プローブ上のSwaV+multicropsなど、標準ベンチマークのベースラインよりも優れています。
関連論文リスト
- Uncertainty Aware Learning for Language Model Alignment [97.36361196793929]
異なるタスクシナリオのモデルアライメントを改善するために,不確実性認識学習(UAL)を提案する。
トレーニングのラベルの平滑化値を個々のサンプルの不確実性に応じて適応的に設定する。
広く使われているベンチマーク実験では、我々のUALは標準教師あり微調整よりも著しく優れています。
論文 参考訳(メタデータ) (2024-06-07T11:37:45Z) - Reinforcement Learning-Guided Semi-Supervised Learning [20.599506122857328]
本稿では,SSLを片腕バンディット問題として定式化する新しい強化学習ガイド型SSL手法 RLGSSL を提案する。
RLGSSLは、ラベル付きデータとラベルなしデータのバランスを保ち、一般化性能を向上させるために、慎重に設計された報酬関数を組み込んでいる。
我々は,複数のベンチマークデータセットに対する広範な実験を通じてRCGSSLの有効性を実証し,我々の手法が最先端のSSL手法と比較して一貫した優れた性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-02T21:52:24Z) - Progressive Feature Adjustment for Semi-supervised Learning from
Pretrained Models [39.42802115580677]
半教師付き学習(SSL)はラベル付きデータとラベルなしデータの両方を利用して予測モデルを構築することができる。
近年の文献では、事前訓練されたモデルで最先端のSSLを適用しても、トレーニングデータの潜在能力を最大限に発揮できないことが示唆されている。
本稿では,ラベルの誤りに敏感でない特徴抽出器を更新するために,非ラベルデータから擬似ラベルを使用することを提案する。
論文 参考訳(メタデータ) (2023-09-09T01:57:14Z) - Rethinking Evaluation Protocols of Visual Representations Learned via
Self-supervised Learning [1.0499611180329804]
自己教師型学習(SSL)は、自己教師型学習(SSL)を通して学習した視覚的表現の質を評価するために用いられる。
既存のSSLメソッドは、これらの評価プロトコルの下で優れたパフォーマンスを示している。
我々は、最先端のSSL方式で広範な実験を行うことにより、性能感度の原因を解明しようとする。
論文 参考訳(メタデータ) (2023-04-07T03:03:19Z) - Benchmark for Uncertainty & Robustness in Self-Supervised Learning [0.0]
セルフ・スーパーバイザード・ラーニングは現実世界のアプリケーション、特に医療や自動運転車のようなデータ・ハングリーな分野に不可欠である。
本稿では Jigsaw Puzzles, Context, Rotation, Geometric Transformations Prediction for vision や BERT や GPT for Language Task など,SSL メソッドの変種について検討する。
我々のゴールは、実験から出力されたベンチマークを作成し、信頼性のある機械学習で新しいSSLメソッドの出発点を提供することです。
論文 参考訳(メタデータ) (2022-12-23T15:46:23Z) - Understanding and Improving the Role of Projection Head in
Self-Supervised Learning [77.59320917894043]
自己教師付き学習(SSL)は、人間のラベル付きデータアノテーションにアクセスせずに有用な特徴表現を作成することを目的としている。
現在の対照的な学習アプローチは、InfoNCEの目的を最適化するために、あるバックボーンネットワークの端にパラメータ化されたプロジェクションヘッドを付加する。
学習可能なプロジェクションヘッドが、トレーニング後にそれを破棄する場合、なぜ必要となるのか?
論文 参考訳(メタデータ) (2022-12-22T05:42:54Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Self-Supervised Learning of Graph Neural Networks: A Unified Review [50.71341657322391]
ラベルなしサンプルを多用する新たなパラダイムとして,自己教師型学習が登場している。
SSLを用いたグラフニューラルネットワーク(GNNs)のトレーニング方法の統一レビューを提供します。
gnnに対するssl手法の処理は,様々な手法の類似性と相違に光を当て,新しい手法やアルゴリズムの開発段階を定めている。
論文 参考訳(メタデータ) (2021-02-22T03:43:45Z) - On Data-Augmentation and Consistency-Based Semi-Supervised Learning [77.57285768500225]
最近提案された整合性に基づく半教師付き学習(SSL)手法は,複数のSSLタスクにおいて最先端技術である。
これらの進歩にもかかわらず、これらの手法の理解はまだ比較的限られている。
論文 参考訳(メタデータ) (2021-01-18T10:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。