論文の概要: Unbiased and Efficient Self-Supervised Incremental Contrastive Learning
- arxiv url: http://arxiv.org/abs/2301.12104v1
- Date: Sat, 28 Jan 2023 06:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 19:07:29.501340
- Title: Unbiased and Efficient Self-Supervised Incremental Contrastive Learning
- Title(参考訳): 無バイアスで効率的な自己監督型インクリメンタルコントラスト学習
- Authors: Cheng Ji, Jianxin Li, Hao Peng, Jia Wu, Xingcheng Fu, Qingyun Sun,
Phillip S. Yu
- Abstract要約: 本稿では,新たなIncremental InfoNCE(NCE-II)損失関数からなる自己教師型Incremental Contrastive Learning(ICL)フレームワークを提案する。
ICLは最大16.7倍のトレーニングスピードアップと16.8倍の高速収束を実現している。
- 参考スコア(独自算出の注目度): 31.763904668737304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive Learning (CL) has been proved to be a powerful self-supervised
approach for a wide range of domains, including computer vision and graph
representation learning. However, the incremental learning issue of CL has
rarely been studied, which brings the limitation in applying it to real-world
applications. Contrastive learning identifies the samples with the negative
ones from the noise distribution that changes in the incremental scenarios.
Therefore, only fitting the change of data without noise distribution causes
bias, and directly retraining results in low efficiency. To bridge this
research gap, we propose a self-supervised Incremental Contrastive Learning
(ICL) framework consisting of (i) a novel Incremental InfoNCE (NCE-II) loss
function by estimating the change of noise distribution for old data to
guarantee no bias with respect to the retraining, (ii) a meta-optimization with
deep reinforced Learning Rate Learning (LRL) mechanism which can adaptively
learn the learning rate according to the status of the training processes and
achieve fast convergence which is critical for incremental learning.
Theoretically, the proposed ICL is equivalent to retraining, which is based on
solid mathematical derivation. In practice, extensive experiments in different
domains demonstrate that, without retraining a new model, ICL achieves up to
16.7x training speedup and 16.8x faster convergence with competitive results.
- Abstract(参考訳): コントラスト学習(CL)は、コンピュータビジョンやグラフ表現学習など幅広い分野において、強力な自己教師型アプローチであることが証明されている。
しかし、CLの漸進的な学習問題が研究されることはめったになく、現実のアプリケーションに適用する際の制限が生じる。
コントラスト学習(Contrastive learning)は、インクリメンタルシナリオで変化するノイズ分布から、負のサンプルを識別する。
したがって、ノイズ分布のないデータ変更だけを適合させることでバイアスが生じ、直接再トレーニングすることで効率が低下する。
そこで本研究では,本研究のギャップを埋めるために,自己教師付きインクリメンタルコントラスト学習(icl)フレームワークを提案する。
(i)新しいインフォデンス(nce-ii)損失関数は、古いデータのノイズ分布の変化を推定し、再訓練に関してバイアスを伴わないようにする。
二 学習過程の状況に応じて学習率を適応的に学習し、段階的な学習に欠かせない高速収束を実現することができる深層強化学習速度学習(LRL)機構によるメタ最適化。
理論的には、提案されたiclは、固体数学的導出に基づく再訓練と同値である。
実際には、異なる領域での広範な実験により、新しいモデルを再訓練することなく、ICLは最大16.7倍のトレーニングスピードアップと16.8倍の高速収束を実現している。
関連論文リスト
- Dynamic Learning Rate for Deep Reinforcement Learning: A Bandit Approach [0.9549646359252346]
深層強化学習(LRRL)のための動的学習率を提案する。
LRRLは、トレーニング中のエージェントのパフォーマンスに基づいて学習率を選択するメタラーニングアプローチである。
実験の結果,LRRLは深部RLアルゴリズムの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2024-10-16T14:15:28Z) - Temporal-Difference Variational Continual Learning [89.32940051152782]
現実世界のアプリケーションにおける機械学習モデルの重要な機能は、新しいタスクを継続的に学習する能力である。
継続的な学習設定では、モデルは以前の知識を保持することで新しいタスクの学習のバランスをとるのに苦労することが多い。
複数の先行推定の正則化効果を統合する新たな学習目標を提案する。
論文 参考訳(メタデータ) (2024-10-10T10:58:41Z) - Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Relaxed Contrastive Learning for Federated Learning [48.96253206661268]
本稿では,フェデレート学習におけるデータ不均一性の課題に対処する,新しいコントラスト学習フレームワークを提案する。
当社のフレームワークは,既存のフェデレート学習アプローチを,標準ベンチマークにおいて大きなマージンで上回ります。
論文 参考訳(メタデータ) (2024-01-10T04:55:24Z) - Directly Attention Loss Adjusted Prioritized Experience Replay [0.07366405857677226]
優先度付き再生体験(PER)は、アクセス頻度を人工的に変化させることで、比較的重要なサンプルについてより深く学習することを可能にする。
DALAPが提案され、パラレル自己保持ネットワークを通じて、シフト分布の変化範囲を直接定量化することができる。
論文 参考訳(メタデータ) (2023-11-24T10:14:05Z) - ArCL: Enhancing Contrastive Learning with Augmentation-Robust
Representations [30.745749133759304]
我々は,自己教師付きコントラスト学習の伝達可能性を分析する理論的枠組みを開発する。
対照的な学習は、その伝達可能性を制限するような、ドメイン不変の機能を学ぶのに失敗することを示す。
これらの理論的知見に基づき、Augmentation-robust Contrastive Learning (ArCL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T09:26:20Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。