論文の概要: Gradient-based Data Augmentation for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2003.12824v2
- Date: Thu, 2 Apr 2020 01:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:19:36.221071
- Title: Gradient-based Data Augmentation for Semi-Supervised Learning
- Title(参考訳): 半教師付き学習のための勾配に基づくデータ拡張
- Authors: Hiroshi Kaizuka
- Abstract要約: 半教師付き学習(SSL)では、整合正則化(CR)と呼ばれる手法が高い性能を達成する。
後方確率分布の画像画素値勾配から勾配ベースデータ拡張(GDA)を決定的に算出する。
様々な混合手法とGDAを組み合わせることで、MixGDAというSSL方式を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In semi-supervised learning (SSL), a technique called consistency
regularization (CR) achieves high performance. It has been proved that the
diversity of data used in CR is extremely important to obtain a model with high
discrimination performance by CR. We propose a new data augmentation
(Gradient-based Data Augmentation (GDA)) that is deterministically calculated
from the image pixel value gradient of the posterior probability distribution
that is the model output. We aim to secure effective data diversity for CR by
utilizing three types of GDA. On the other hand, it has been demonstrated that
the mixup method for labeled data and unlabeled data is also effective in SSL.
We propose an SSL method named MixGDA by combining various mixup methods and
GDA. The discrimination performance achieved by MixGDA is evaluated against the
13-layer CNN that is used as standard in SSL research. As a result, for
CIFAR-10 (4000 labels), MixGDA achieves the same level of performance as the
best performance ever achieved. For SVHN (250 labels, 500 labels and 1000
labels) and CIFAR-100 (10000 labels), MixGDA achieves state-of-the-art
performance.
- Abstract(参考訳): 半教師付き学習(SSL)では、整合正則化(CR)と呼ばれる手法が高い性能を達成する。
CRで使用するデータの多様性はCRによる高い識別性能を持つモデルを得る上で極めて重要であることが証明されている。
モデル出力である後確率分布の画像画素値勾配から決定論的に計算される新しいデータ拡張法(gradient-based data augmentation, gda)を提案する。
3種類のgdaを活用し,crの効率的なデータ多様性の確保を目指す。
一方,ラベル付きデータとラベルなしデータの混合方式はSSLにおいても有効であることが示された。
様々な混合手法とGDAを組み合わせたSSL方式MixGDAを提案する。
SSL研究において標準として使用される13層CNNに対して,MixGDAによる識別性能を評価する。
その結果、CIFAR-10 (4000レーベル) では、MixGDAは史上最高のパフォーマンスを達成している。
SVHN(250レーベル、500レーベル、1000レーベル)とCIFAR-100(10000レーベル)では、MixGDAは最先端のパフォーマンスを達成する。
関連論文リスト
- Weakly Contrastive Learning via Batch Instance Discrimination and Feature Clustering for Small Sample SAR ATR [7.2932563202952725]
BIDFC(Batch Instance Discrimination and Feature Clustering)と呼ばれる新しいフレームワークを提案する。
本枠組みでは,SAR画像中の試料間の類似度が高いため,試料間の埋め込み距離は適度である。
移動・静止目標獲得・認識(MSTAR)データベースの実験結果から,3.13%のトレーニングデータに基づいて,本手法の91.25%の分類精度が得られた。
論文 参考訳(メタデータ) (2024-08-07T08:39:33Z) - On Pretraining Data Diversity for Self-Supervised Learning [57.91495006862553]
我々は、より多様なデータセットを用いたトレーニングが、固定された計算予算の下での自己教師付き学習(SSL)のパフォーマンスに与える影響について検討する。
以上の結果から,事前学習データの多様性の増大はSSL性能を向上させるが,下流データへの分布距離が最小である場合に限る。
論文 参考訳(メタデータ) (2024-03-20T17:59:58Z) - DreamDA: Generative Data Augmentation with Diffusion Models [68.22440150419003]
本稿では,新しい分類指向フレームワークDreamDAを提案する。
DreamDAは、オリジナルのデータのトレーニングイメージを種として考慮して、オリジナルのデータ分布に準拠する多様なサンプルを生成する。
また、生成したデータのラベルは、対応するシード画像のラベルと一致しない可能性があるため、擬似ラベルを生成するための自己学習パラダイムを導入する。
論文 参考訳(メタデータ) (2024-03-19T15:04:35Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance
Text Classification [34.15923302216751]
本稿では,効率的なテキスト分類を支援するための簡易でプラグイン型のデータ拡張フレームワーク EPiDA を提案する。
EPiDAは、データ生成を制御するために、相対エントロピー(REM)と条件最小エントロピー(CEM)の2つのメカニズムを採用している。
EPiDAは効率的な分類訓練のための効率的で継続的なデータ生成をサポートする。
論文 参考訳(メタデータ) (2022-04-24T06:53:48Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - AlphaMatch: Improving Consistency for Semi-supervised Learning with
Alpha-divergence [44.88886269629515]
半教師付き学習(SSL)は、ラベル付きデータとラベルなしデータの両方を併用することにより、よりデータ効率の高い機械学習への重要なアプローチである。
我々は、データポイントとそれらから派生した拡張データとのラベル一貫性を効率的に強化することにより、データ拡張を利用する効率的なSSL手法であるAlphaMatchを提案する。
論文 参考訳(メタデータ) (2020-11-23T22:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。