論文の概要: Self-Supervised Learning via Maximum Entropy Coding
- arxiv url: http://arxiv.org/abs/2210.11464v1
- Date: Thu, 20 Oct 2022 17:58:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 13:50:42.194063
- Title: Self-Supervised Learning via Maximum Entropy Coding
- Title(参考訳): 最大エントロピー符号化による自己教師付き学習
- Authors: Xin Liu, Zhongdao Wang, Yali Li, Shengjin Wang
- Abstract要約: 本稿では,表現の構造を明示的に最適化する原理的目的として,最大エントロピー符号化(MEC)を提案する。
MECは、特定のプリテキストタスクに基づいて、以前のメソッドよりもより一般化可能な表現を学ぶ。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 57.56570417545023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A mainstream type of current self-supervised learning methods pursues a
general-purpose representation that can be well transferred to downstream
tasks, typically by optimizing on a given pretext task such as instance
discrimination. In this work, we argue that existing pretext tasks inevitably
introduce biases into the learned representation, which in turn leads to biased
transfer performance on various downstream tasks. To cope with this issue, we
propose Maximum Entropy Coding (MEC), a more principled objective that
explicitly optimizes on the structure of the representation, so that the
learned representation is less biased and thus generalizes better to unseen
downstream tasks. Inspired by the principle of maximum entropy in information
theory, we hypothesize that a generalizable representation should be the one
that admits the maximum entropy among all plausible representations. To make
the objective end-to-end trainable, we propose to leverage the minimal coding
length in lossy data coding as a computationally tractable surrogate for the
entropy, and further derive a scalable reformulation of the objective that
allows fast computation. Extensive experiments demonstrate that MEC learns a
more generalizable representation than previous methods based on specific
pretext tasks. It achieves state-of-the-art performance consistently on various
downstream tasks, including not only ImageNet linear probe, but also
semi-supervised classification, object detection, instance segmentation, and
object tracking. Interestingly, we show that existing batch-wise and
feature-wise self-supervised objectives could be seen equivalent to low-order
approximations of MEC. Code and pre-trained models are available at
https://github.com/xinliu20/MEC.
- Abstract(参考訳): 現在の自己教師付き学習手法の主流型は、一般にインスタンス識別のような所定の前文タスクに最適化することで、下流タスクによく移行できる汎用表現を追求している。
本研究では,既存のプレテキストタスクが学習表現に必然的にバイアスを導入し,様々な下流タスクにおけるバイアス伝達性能をもたらすことを論じる。
この問題に対処するため,より原理化された目的である最大エントロピー符号化(MEC)を提案する。
情報理論における最大エントロピーの原理に着想を得て、一般化可能な表現はすべての可算表現の中で最大エントロピーを認めるものであるべきだという仮説を立てる。
そこで本研究では,エントロピーの計算可能なサロゲートとして,損失データ符号化における最小符号化長を活用し,高速計算が可能な目標のスケーラブルな再構成を実現することを提案する。
大規模な実験により、MECは特定のプレテキストタスクに基づいて従来の方法よりもより一般化可能な表現を学習することを示した。
ImageNetリニアプローブだけでなく、半教師付き分類、オブジェクト検出、インスタンスセグメンテーション、オブジェクトトラッキングなど、さまざまなダウンストリームタスクに対して一貫して最先端のパフォーマンスを実現する。
興味深いことに、既存のバッチワイドおよびフィーチャーワイドの自己管理目的は、MECの低次近似と同等である。
コードと事前トレーニングされたモデルはhttps://github.com/xinliu20/mecで入手できる。
関連論文リスト
- Transformers are Minimax Optimal Nonparametric In-Context Learners [36.291980654891496]
大規模言語モデルのコンテキスト内学習は、いくつかの実証的な例から新しいタスクを学ぶのに驚くほど効果的な方法であることが証明されている。
我々は,ディープニューラルネットワークと1つの線形アテンション層からなる変圧器の近似および一般化誤差境界を開発する。
十分に訓練されたトランスフォーマーは、文脈における最小推定リスクを達成し、改善できることを示す。
論文 参考訳(メタデータ) (2024-08-22T08:02:10Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Making Linear MDPs Practical via Contrastive Representation Learning [101.75885788118131]
マルコフ決定過程(MDP)における次元性の呪いに、低ランク表現を利用することで対処することが一般的である。
本稿では,効率的な表現学習を可能にしつつ,正規化を自動的に保証する線形MDPの代替的定義について考察する。
いくつかのベンチマークにおいて、既存の最先端モデルベースおよびモデルフリーアルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-14T18:18:02Z) - Efficient Iterative Amortized Inference for Learning Symmetric and
Disentangled Multi-Object Representations [8.163697683448811]
本稿では,オブジェクト中心表現の教師なし学習のための効率的なフレームワークであるEfficientMORLを紹介する。
対称性と非絡み合いの両方を必要とすることによる最適化の課題は、高コスト反復的償却推論によって解決できることを示す。
標準のマルチオブジェクト・ベンチマークでは,強いオブジェクト分解と歪みを示しながら,ほぼ1桁の高速なトレーニングとテスト時間推定を実現している。
論文 参考訳(メタデータ) (2021-06-07T14:02:49Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - An Information Bottleneck Approach for Controlling Conciseness in
Rationale Extraction [84.49035467829819]
我々は,情報ボトルネック(IB)の目的を最適化することで,このトレードオフをよりよく管理できることを示す。
我々の完全教師なしのアプローチは、文上のスパース二項マスクを予測する説明器と、抽出された合理性のみを考慮したエンドタスク予測器を共同で学習する。
論文 参考訳(メタデータ) (2020-05-01T23:26:41Z) - Pre-training Text Representations as Meta Learning [113.3361289756749]
本稿では,下流タスクを効果的に学習するために,モデルがテキスト表現を学習する能力を直接最適化する学習アルゴリズムを提案する。
マルチタスク事前学習とモデル非依存型メタラーニングの間には,一連のメタトレインステップによる本質的な関係があることが示されている。
論文 参考訳(メタデータ) (2020-04-12T09:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。