論文の概要: Gradient-based Data Augmentation for Semi-Supervised Learning
- arxiv url: http://arxiv.org/abs/2003.12824v2
- Date: Thu, 2 Apr 2020 01:10:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 23:19:36.221071
- Title: Gradient-based Data Augmentation for Semi-Supervised Learning
- Title(参考訳): 半教師付き学習のための勾配に基づくデータ拡張
- Authors: Hiroshi Kaizuka
- Abstract要約: 半教師付き学習(SSL)では、整合正則化(CR)と呼ばれる手法が高い性能を達成する。
後方確率分布の画像画素値勾配から勾配ベースデータ拡張(GDA)を決定的に算出する。
様々な混合手法とGDAを組み合わせることで、MixGDAというSSL方式を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In semi-supervised learning (SSL), a technique called consistency
regularization (CR) achieves high performance. It has been proved that the
diversity of data used in CR is extremely important to obtain a model with high
discrimination performance by CR. We propose a new data augmentation
(Gradient-based Data Augmentation (GDA)) that is deterministically calculated
from the image pixel value gradient of the posterior probability distribution
that is the model output. We aim to secure effective data diversity for CR by
utilizing three types of GDA. On the other hand, it has been demonstrated that
the mixup method for labeled data and unlabeled data is also effective in SSL.
We propose an SSL method named MixGDA by combining various mixup methods and
GDA. The discrimination performance achieved by MixGDA is evaluated against the
13-layer CNN that is used as standard in SSL research. As a result, for
CIFAR-10 (4000 labels), MixGDA achieves the same level of performance as the
best performance ever achieved. For SVHN (250 labels, 500 labels and 1000
labels) and CIFAR-100 (10000 labels), MixGDA achieves state-of-the-art
performance.
- Abstract(参考訳): 半教師付き学習(SSL)では、整合正則化(CR)と呼ばれる手法が高い性能を達成する。
CRで使用するデータの多様性はCRによる高い識別性能を持つモデルを得る上で極めて重要であることが証明されている。
モデル出力である後確率分布の画像画素値勾配から決定論的に計算される新しいデータ拡張法(gradient-based data augmentation, gda)を提案する。
3種類のgdaを活用し,crの効率的なデータ多様性の確保を目指す。
一方,ラベル付きデータとラベルなしデータの混合方式はSSLにおいても有効であることが示された。
様々な混合手法とGDAを組み合わせたSSL方式MixGDAを提案する。
SSL研究において標準として使用される13層CNNに対して,MixGDAによる識別性能を評価する。
その結果、CIFAR-10 (4000レーベル) では、MixGDAは史上最高のパフォーマンスを達成している。
SVHN(250レーベル、500レーベル、1000レーベル)とCIFAR-100(10000レーベル)では、MixGDAは最先端のパフォーマンスを達成する。
関連論文リスト
- DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - DP-Mix: Mixup-based Data Augmentation for Differentially Private
Learning [10.971246386083884]
本稿では,差分学習の制約に特化して設計された2つの新しいデータ拡張手法を提案する。
我々の最初のテクニックであるDP-Mix_Selfは、自己拡張データにミキサアップを施すことにより、さまざまなデータセットと設定にわたるSoTA分類性能を達成する。
第2の手法であるDP-Mix_Diffは、事前学習した拡散モデルから合成データを混合プロセスに組み込むことにより、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-11-02T15:12:12Z) - Detail Reinforcement Diffusion Model: Augmentation Fine-Grained Visual
Categorization in Few-Shot Conditions [11.931820047796332]
拡散モデルは、データ生成において顕著な多様性のため、データ拡張において広く採用されている。
詳細強化拡散モデル(DRDM)と呼ばれる新しい手法を提案する。
大規模モデルの豊富な知識を微粒化に活用し、識別的意味的組換え(DSR)と空間的知識参照(SKR)の2つの重要な構成要素を含む。
論文 参考訳(メタデータ) (2023-09-15T01:28:59Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - ADT-SSL: Adaptive Dual-Threshold for Semi-Supervised Learning [68.53717108812297]
Semi-Supervised Learning (SSL)は、ラベル付きデータとラベルなしデータを併用してモデルをトレーニングすることで、高度な分類タスクを実現している。
本稿では,半教師付き学習(ADT-SSL)のための適応的デュアル閾値法を提案する。
実験の結果,提案したADT-SSLは最先端の分類精度を実現することがわかった。
論文 参考訳(メタデータ) (2022-05-21T11:52:08Z) - EPiDA: An Easy Plug-in Data Augmentation Framework for High Performance
Text Classification [34.15923302216751]
本稿では,効率的なテキスト分類を支援するための簡易でプラグイン型のデータ拡張フレームワーク EPiDA を提案する。
EPiDAは、データ生成を制御するために、相対エントロピー(REM)と条件最小エントロピー(CEM)の2つのメカニズムを採用している。
EPiDAは効率的な分類訓練のための効率的で継続的なデータ生成をサポートする。
論文 参考訳(メタデータ) (2022-04-24T06:53:48Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - AlphaMatch: Improving Consistency for Semi-supervised Learning with
Alpha-divergence [44.88886269629515]
半教師付き学習(SSL)は、ラベル付きデータとラベルなしデータの両方を併用することにより、よりデータ効率の高い機械学習への重要なアプローチである。
我々は、データポイントとそれらから派生した拡張データとのラベル一貫性を効率的に強化することにより、データ拡張を利用する効率的なSSL手法であるAlphaMatchを提案する。
論文 参考訳(メタデータ) (2020-11-23T22:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。