論文の概要: Confidence-Guided Data Augmentation for Deep Semi-Supervised Training
- arxiv url: http://arxiv.org/abs/2209.08174v1
- Date: Fri, 16 Sep 2022 21:23:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 16:43:20.876833
- Title: Confidence-Guided Data Augmentation for Deep Semi-Supervised Training
- Title(参考訳): 深層半監督訓練のための信頼誘導型データ強化
- Authors: Fadoua Khmaissia and Hichem Frigui
- Abstract要約: 特徴空間の最も困難な領域からの学習を強調する半教師付き学習設定のための新しいデータ拡張手法を提案する。
CIFAR-100とSTL-10の2つのベンチマークRGBデータセットを用いて実験を行い、提案手法が精度とロバスト性の観点から分類性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 0.9968241071319184
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a new data augmentation technique for semi-supervised learning
settings that emphasizes learning from the most challenging regions of the
feature space. Starting with a fully supervised reference model, we first
identify low confidence predictions. These samples are then used to train a
Variational AutoEncoder (VAE) that can generate an infinite number of
additional images with similar distribution. Finally, using the originally
labeled data and the synthetically generated labeled and unlabeled data, we
retrain a new model in a semi-supervised fashion. We perform experiments on two
benchmark RGB datasets: CIFAR-100 and STL-10, and show that the proposed scheme
improves classification performance in terms of accuracy and robustness, while
yielding comparable or superior results with respect to existing fully
supervised approaches
- Abstract(参考訳): 特徴空間の最も困難な領域からの学習を強調する半教師付き学習設定のための新しいデータ拡張手法を提案する。
完全な教師付き参照モデルから始め、まず信頼度の低い予測を特定する。
これらのサンプルは変分オートエンコーダ(vae)を訓練するために使用され、同様の分布を持つ無限個の追加画像を生成することができる。
最後に,オリジナルラベル付きデータと合成ラベル付きおよび未ラベル付きデータを用いて,半教師付き方式で新しいモデルをトレーニングする。
CIFAR-100とSTL-10の2つのベンチマークRGBデータセットで実験を行い、提案手法が既存の完全教師付きアプローチと同等あるいは優れた結果を得るとともに、精度と堅牢性の観点から分類性能を向上させることを示した。
関連論文リスト
- Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Spanning Training Progress: Temporal Dual-Depth Scoring (TDDS) for Enhanced Dataset Pruning [50.809769498312434]
我々は、時間的デュアルディープス・スコーリング(TDDS)と呼ばれる新しいデータセット・プルーニング手法を提案する。
本手法は,10%のトレーニングデータで54.51%の精度を達成し,ランダム選択を7.83%以上,他の比較手法を12.69%以上上回る結果を得た。
論文 参考訳(メタデータ) (2023-11-22T03:45:30Z) - Diverse Data Augmentation with Diffusions for Effective Test-time Prompt
Tuning [73.75282761503581]
DiffTPTを提案する。DiffTPTは,事前学習した拡散モデルを用いて,多種多様な情報データを生成する。
DiffTPTがゼロショット精度を平均5.13%向上することを示す。
論文 参考訳(メタデータ) (2023-08-11T09:36:31Z) - Convolutional Neural Networks for the classification of glitches in
gravitational-wave data streams [52.77024349608834]
我々は、高度LIGO検出器のデータから過渡ノイズ信号(グリッチ)と重力波を分類する。
どちらも、Gravity Spyデータセットを使用して、スクラッチからトレーニングされた、教師付き学習アプローチのモデルを使用します。
また、擬似ラベルの自動生成による事前学習モデルの自己教師型アプローチについても検討する。
論文 参考訳(メタデータ) (2023-03-24T11:12:37Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - DATE: Detecting Anomalies in Text via Self-Supervision of Transformers [5.105840060102528]
画像の異常に対する最近の深い方法は、エンドツーエンドのセルフ監視設定で正常性のより良い特徴を学びます。
このアプローチは、テキストシーケンスに新しいプリテキストタスクを導入することで、テキストの異常検出に使用します。
20NewsgroupsおよびAG Newsデータセットで強力な定量的および定性的な結果を示します。
論文 参考訳(メタデータ) (2021-04-12T16:08:05Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - Robust Disentanglement of a Few Factors at a Time [5.156484100374058]
変分オートエンコーダ(VAE)の整合性向上のための人口ベーストレーニング(PBT)を導入する。
PBT-VAEトレーニングでは、教師なしのモデルスコアとしてUnsupervised Disentanglement Ranking (UDR)を使用し、この方法でトレーニングされたモデルが、生成因子のサブセットのみを一貫して切り離す傾向を示す。
複数のデータセットとメトリクスをまたいで、最先端の教師なしのアンハンジメント性能とロバストネスを著しく改善したことを示す。
論文 参考訳(メタデータ) (2020-10-26T12:34:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。