論文の概要: Virtual embeddings and self-consistency for self-supervised learning
- arxiv url: http://arxiv.org/abs/2206.06023v2
- Date: Wed, 15 Jun 2022 22:59:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 11:51:06.651994
- Title: Virtual embeddings and self-consistency for self-supervised learning
- Title(参考訳): 自己教師付き学習のための仮想埋め込みと自己一貫性
- Authors: Tariq Bdair, Hossam Abdelhamid, Nassir Navab, and Shadi Albarqouni
- Abstract要約: TriMixは、線形データを通じて仮想埋め込みを生成する自己教師型学習の新しい概念である。
我々は,TriMixを2.71%,0.41%改善した8つのベンチマークデータセットで検証した。
- 参考スコア(独自算出の注目度): 43.086696088061416
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Self-supervised Learning (SSL) has recently gained much attention due to the
high cost and data limitation in the training of supervised learning models.
The current paradigm in the SSL is to utilize data augmentation at the input
space to create different views of the same images and train a model to
maximize the representations between similar images and minimize them for
different ones. While this approach achieves state-of-the-art (SOTA) results in
various downstream tasks, it still lakes the opportunity to investigate the
latent space augmentation. This paper proposes TriMix, a novel concept for SSL
that generates virtual embeddings through linear interpolation of the data,
thus providing the model with novel representations. Our strategy focuses on
training the model to extract the original embeddings from virtual ones, hence,
better representation learning. Additionally, we propose a self-consistency
term that improves the consistency between the virtual and actual embeddings.
We validate TriMix on eight benchmark datasets consisting of natural and
medical images with an improvement of 2.71% and 0.41% better than the
second-best models for both data types. Further, our approach outperformed the
current methods in semi-supervised learning, particularly in low data regimes.
Besides, our pre-trained models showed better transfer to other datasets.
- Abstract(参考訳): 自己教師付き学習(SSL)は、教師付き学習モデルのトレーニングにおいて、高コストとデータ制限のために最近注目を集めている。
SSLの現在のパラダイムは、入力空間におけるデータ拡張を利用して、同じイメージの異なるビューを作成し、類似したイメージ間の表現を最大化し、異なるイメージに対して最小化するモデルをトレーニングすることだ。
このアプローチは、様々な下流タスクをもたらす最先端(SOTA)を実現するが、しかしながら、潜伏空間の増大を調査する機会を秘めている。
本稿では,データの線形補間により仮想埋め込みを生成するSSLの新しい概念であるTriMixを提案する。
我々の戦略は、仮想空間からオリジナルの埋め込みを抽出するためにモデルを訓練することに焦点を当てている。
さらに,仮想と実際の埋め込みの整合性を改善する自己整合性項を提案する。
我々はTriMixを、自然画像と医用画像からなる8つのベンチマークデータセットで検証し、両方のデータ型で2番目に良いモデルよりも2.71%と0.41%改善した。
さらに,本手法は半教師付き学習,特に低データ体制において,現在の手法よりも優れていた。
さらに、トレーニング済みのモデルは、他のデータセットへの転送性が向上しました。
関連論文リスト
- Can Generative Models Improve Self-Supervised Representation Learning? [0.7999703756441756]
本稿では、生成モデルを利用して意味論的に一貫した画像拡張を生成することによって、自己指導型学習パラダイムを充実させる新しいフレームワークを提案する。
その結果,下流タスクにおいて,学習した視覚表現の精度を最大10%向上させることができた。
論文 参考訳(メタデータ) (2024-03-09T17:17:07Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Self-Play Fine-Tuning of Diffusion Models for Text-to-Image Generation [59.184980778643464]
ファインチューニング拡散モデル : 生成人工知能(GenAI)の最前線
本稿では,拡散モデル(SPIN-Diffusion)のための自己演奏ファインチューニングという革新的な手法を紹介する。
提案手法は従来の教師付き微調整とRL戦略の代替として,モデル性能とアライメントの両方を大幅に改善する。
論文 参考訳(メタデータ) (2024-02-15T18:59:18Z) - Robust Category-Level 3D Pose Estimation from Synthetic Data [17.247607850702558]
CADモデルから生成されたオブジェクトポーズ推定のための新しい合成データセットであるSyntheticP3Dを紹介する。
逆レンダリングによるポーズ推定を行うニューラルネットワークモデルをトレーニングするための新しいアプローチ(CC3D)を提案する。
論文 参考訳(メタデータ) (2023-05-25T14:56:03Z) - Phantom Embeddings: Using Embedding Space for Model Regularization in
Deep Neural Networks [12.293294756969477]
機械学習モデルの強みは、データから複雑な関数近似を学ぶ能力に起因している。
複雑なモデルはトレーニングデータを記憶する傾向があり、結果としてテストデータの正規化性能が低下する。
情報豊富な潜伏埋め込みと高いクラス内相関を利用してモデルを正規化するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-14T17:15:54Z) - DINOv2: Learning Robust Visual Features without Supervision [75.42921276202522]
この研究は、既存の事前学習手法、特に自己教師付き手法が、多様なソースから十分なキュレートされたデータで訓練すれば、そのような特徴を生み出すことができることを示している。
技術的な貢献の多くは、大規模なトレーニングを加速し、安定化することを目的としています。
データの観点からは、自己組織化されていないデータではなく、専用で多様でキュレートされた画像データセットを構築するための自動パイプラインを提案する。
論文 参考訳(メタデータ) (2023-04-14T15:12:19Z) - Style-Hallucinated Dual Consistency Learning for Domain Generalized
Semantic Segmentation [117.3856882511919]
本稿では、ドメインシフトを処理するためのStyle-HAllucinated Dual consistEncy Learning(SHADE)フレームワークを提案する。
SHADEは3つの実世界のデータセットの平均mIoUに対して5.07%と8.35%の精度で改善し、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-04-06T02:49:06Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Distilling Visual Priors from Self-Supervised Learning [24.79633121345066]
畳み込みニューラルネットワーク(CNN)は、小さなトレーニングデータセットに適合する傾向にある。
データ不足条件下での画像分類のためのCNNモデルの一般化能力を向上させるために,自己教師付き学習と知識蒸留を活用した2相パイプラインを提案する。
論文 参考訳(メタデータ) (2020-08-01T13:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。