論文の概要: Sample Efficiency of Data Augmentation Consistency Regularization
- arxiv url: http://arxiv.org/abs/2202.12230v1
- Date: Thu, 24 Feb 2022 17:50:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 17:46:59.797965
- Title: Sample Efficiency of Data Augmentation Consistency Regularization
- Title(参考訳): データ拡張一貫性規則化のサンプル効率
- Authors: Shuo Yang, Yijun Dong, Rachel Ward, Inderjit S. Dhillon, Sujay
Sanghavi, Qi Lei
- Abstract要約: まず,データ拡張整合性(DAC)が拡張データ(DA-ERM)における経験的リスク最小化よりも本質的に効率的であることを示す。
そこで我々は,DACを関数クラスの複雑性を低減する手段として再編成するDAC解析のための新しい理論フレームワークを提案する。
- 参考スコア(独自算出の注目度): 44.19833682906076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is popular in the training of large neural networks;
currently, however, there is no clear theoretical comparison between different
algorithmic choices on how to use augmented data. In this paper, we take a step
in this direction - we first present a simple and novel analysis for linear
regression, demonstrating that data augmentation consistency (DAC) is
intrinsically more efficient than empirical risk minimization on augmented data
(DA-ERM). We then propose a new theoretical framework for analyzing DAC, which
reframes DAC as a way to reduce function class complexity. The new framework
characterizes the sample efficiency of DAC for various non-linear models (e.g.,
neural networks). Further, we perform experiments that make a clean and
apples-to-apples comparison (i.e., with no extra modeling or data tweaks)
between ERM and consistency regularization using CIFAR-100 and WideResNet;
these together demonstrate the superior efficacy of DAC.
- Abstract(参考訳): データ拡張は、大規模なニューラルネットワークのトレーニングで人気があるが、現在、拡張データの使用方法に関する異なるアルゴリズムの選択の間に明確な理論的比較はない。
本稿では、まず、線形回帰のための単純で斬新な分析を行い、データ拡張整合性(DAC)が、拡張データ(DA-ERM)における経験的リスク最小化よりも本質的に効率的であることを実証する。
そこで我々は,DACを関数クラスの複雑性を低減する手段として再編成するDAC解析のための新しい理論フレームワークを提案する。
新しいフレームワークは、様々な非線形モデル(例えばニューラルネットワーク)に対するDACのサンプル効率を特徴付ける。
さらに, erm と cifar-100 と wideesnet を用いた一貫性正規化とを, 清潔で apples-to-apples 比較 (モデリングやデータ修正は不要) する実験を行った。
関連論文リスト
- Heterogeneous Learning Rate Scheduling for Neural Architecture Search on Long-Tailed Datasets [0.0]
本稿では,DARTSのアーキテクチャパラメータに適した適応学習率スケジューリング手法を提案する。
提案手法は,学習エポックに基づくアーキテクチャパラメータの学習率を動的に調整し,よく訓練された表現の破壊を防止する。
論文 参考訳(メタデータ) (2024-06-11T07:32:25Z) - Improving SMOTE via Fusing Conditional VAE for Data-adaptive Noise Filtering [0.5735035463793009]
変分オートエンコーダ(VAE)を用いたSMOTEアルゴリズムの拡張フレームワークを提案する。
本稿では,VAEを用いて低次元潜在空間におけるデータ点密度を体系的に定量化し,クラスラベル情報と分類困難度を同時に統合する手法を提案する。
いくつかの不均衡データセットに関する実証的研究は、この単純なプロセスが、ディープラーニングモデルよりも従来のSMOTEアルゴリズムを革新的に改善することを示している。
論文 参考訳(メタデータ) (2024-05-30T07:06:02Z) - On Improving the Algorithm-, Model-, and Data- Efficiency of Self-Supervised Learning [18.318758111829386]
非パラメトリックなインスタンス識別に基づく効率的なシングルブランチSSL手法を提案する。
また,確率分布と正方形根版とのKL分散を最小限に抑える新しい自己蒸留損失を提案する。
論文 参考訳(メタデータ) (2024-04-30T06:39:04Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Learning Better with Less: Effective Augmentation for Sample-Efficient
Visual Reinforcement Learning [57.83232242068982]
データ拡張(DA)は、ビジュアル強化学習(RL)アルゴリズムのサンプル効率を高める重要な手法である。
サンプル効率のよい視覚的RLを実現する上で, DAのどの属性が有効かは明らかになっていない。
本研究は,DAの属性が有効性に与える影響を評価するための総合的な実験を行う。
論文 参考訳(メタデータ) (2023-05-25T15:46:20Z) - Infinite Recommendation Networks: A Data-Centric Approach [8.044430277912936]
Neural Tangent Kernelを活用して、無限大のニューラルネットワークをトレーニングし、無限大のボトルネック層を持つオートエンコーダであるinfty$-AEを考案します。
また、小型で高忠実なデータ要約を合成するためのDistill-CFを開発した。
我々は、最初のデータセットサイズの0.1%に満たない完全なデータセット上で、infty$-AEのパフォーマンスの96-105%を観察した。
論文 参考訳(メタデータ) (2022-06-03T00:34:13Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Online Robust and Adaptive Learning from Data Streams [22.319483572757097]
オンライン学習では、アウトレーヤにしっかりと学習し、基盤となるデータ生成メカニズムの変化に迅速に適応する必要がある。
本稿では,従来のオンライン学習アルゴリズムの属性をロバスト性,後者を適応性と呼ぶ。
本稿では,このトレードオフを評価するために,近似に基づくロバスト性適応アルゴリズム(SRA)を提案する。
論文 参考訳(メタデータ) (2020-07-23T17:49:04Z) - Least Squares Regression with Markovian Data: Fundamental Limits and
Algorithms [69.45237691598774]
マルコフ連鎖からデータポイントが依存しサンプリングされる最小二乗線形回帰問題について検討する。
この問題を$tau_mathsfmix$という観点から、鋭い情報理論のミニマックス下限を確立する。
本稿では,経験的リプレイに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T04:26:50Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。