論文の概要: Can Pretext-Based Self-Supervised Learning Be Boosted by Downstream
Data? A Theoretical Analysis
- arxiv url: http://arxiv.org/abs/2103.03568v1
- Date: Fri, 5 Mar 2021 09:53:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:07:01.407112
- Title: Can Pretext-Based Self-Supervised Learning Be Boosted by Downstream
Data? A Theoretical Analysis
- Title(参考訳): pretext-based self-supervised learningは下流データによって促進されるか?
理論的な分析
- Authors: Jiaye Teng, Weiran Huang
- Abstract要約: pretext-based self-supervised learningは、ラベルのないデータに対して手作りのpretextタスクを通じて意味表現を学ぶことを目的としている。
citetlee 2020predictingは、前提文に基づく自己教師付き学習が条件付き独立(ci)下で下流タスクのサンプル複雑性を効果的に低減できることを証明する。
CI条件を保持するために,学習可能な関数を入力に適用するアイデアを検討する。
- 参考スコア(独自算出の注目度): 12.188482172898656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pretext-based self-supervised learning aims to learn the semantic
representation via a handcrafted pretext task over unlabeled data and then use
the learned representation for downstream prediction tasks.
\citet{lee2020predicting} prove that pretext-based self-supervised learning can
effectively reduce the sample complexity of downstream tasks under Conditional
Independence (CI) between the components of the pretext task conditional on the
downstream label. However, the CI condition rarely holds in practice, and the
downstream sample complexity will get much worse if the CI condition does not
hold. In this paper, we explore the idea of applying a learnable function to
the input to make the CI condition hold. In particular, we first rigorously
formulate the criteria that the function needs to satisfy. We then design an
ingenious loss function for learning such a function and prove that the
function minimizing the proposed loss satisfies the above criteria. We
theoretically study the number of labeled data required, and give a model-free
lower bound showing that taking limited downstream data will hurt the
performance of self-supervised learning. Furthermore, we take the model
structure into account and give a model-dependent lower bound, which gets
higher when the model capacity gets larger. Moreover, we conduct several
numerical experiments to verify our theoretical results.
- Abstract(参考訳): pretext-based self-supervised learningは,ラベルのないデータ上で手作りのpretextタスクを通じて意味表現を学習し,下流予測タスクに学習表現を使用する。
\citet{lee2020predicting} プリテキストベースの自己教師付き学習は、下流ラベル上のプリテキストタスク条件のコンポーネント間の条件付き独立(ci)下での下流タスクのサンプル複雑性を効果的に低減できる。
しかし、CI条件が実際に保持されることはめったになく、CI条件が満たなければ、下流のサンプルの複雑さはさらに悪化する。
本稿では,CI条件を保持するために学習可能な関数を入力に適用するアイデアを検討する。
特に、まず関数が満たす必要がある基準を厳密に定式化します。
そして,そのような関数を学習するための巧妙な損失関数を設計し,提案する損失を最小化する関数が上記の基準を満たすことを証明した。
理論的には,必要なラベル付きデータの数について検討し,下流データに制限を課すことで,自己教師付き学習の性能を損なうことを示す。
さらに、モデル構造を考慮に入れ、モデル依存の下位境界を与え、モデル容量が大きくなるとより高くなります。
さらに,いくつかの数値実験を行い,実験結果の検証を行った。
関連論文リスト
- Unsupervised Transfer Learning via Adversarial Contrastive Training [3.227277661633986]
対戦型コントラスト学習(ACT)を用いた新しい教師なしトランスファー学習手法を提案する。
実験により, 細調整線形プローブとK-NNプロトコルを用いて, 各種データセットの分類精度に優れることを示した。
論文 参考訳(メタデータ) (2024-08-16T05:11:52Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Task-Robust Pre-Training for Worst-Case Downstream Adaptation [62.05108162160981]
プレトレーニングは下流のタスクに移行することで大きな成功を収めた。
本稿では,下流タスクに対する一様性能を保証するモデルについて,事前学習について考察する。
論文 参考訳(メタデータ) (2023-06-21T07:43:23Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Task-Agnostic Robust Representation Learning [31.818269301504564]
本研究では,未ラベルデータを用いた頑健な表現学習の課題をタスクに依存しない方法で検討する。
我々は、その損失をクリーンデータとロバストネス正則化器を用いて、下流タスクにおける予測モデルの逆方向の損失に上限を導出する。
本手法は,関係するベースラインと比較して,好適な対向性能を実現する。
論文 参考訳(メタデータ) (2022-03-15T02:05:11Z) - On the Transferability of Pre-trained Language Models: A Study from
Artificial Datasets [74.11825654535895]
大規模未ラベルテキストデータ上での事前学習言語モデル(LM)により、ダウンストリームのパフォーマンスが極めて容易になる。
我々は,事前学習データに含まれる特定の特徴について,セマンティクス以外では,下流タスクのスクラッチからトレーニングしたデータよりも,事前学習したLMを優れているか検討した。
論文 参考訳(メタデータ) (2021-09-08T10:39:57Z) - Identifying Wrongly Predicted Samples: A Method for Active Learning [6.976600214375139]
本稿では,不確実性を超えた単純なサンプル選択基準を提案する。
予測されたサンプルを正しく識別するために、最先端の結果とより良いレートを示す。
論文 参考訳(メタデータ) (2020-10-14T09:00:42Z) - Predicting What You Already Know Helps: Provable Self-Supervised
Learning [60.27658820909876]
自己教師付き表現学習は、ラベル付きデータを必要としない補助的な予測タスク(プリテキストタスクと呼ばれる)を解決する。
本研究では,特定のエミュレーションに基づくプレテキストタスク間の統計的関係を利用して,優れた表現を学習することを保証する機構を示す。
複素基底真理関数クラスにおいても線形層は近似誤差が小さいことを証明した。
論文 参考訳(メタデータ) (2020-08-03T17:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。