論文の概要: Time Matters in Using Data Augmentation for Vision-based Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2102.08581v1
- Date: Wed, 17 Feb 2021 05:22:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 20:20:41.874391
- Title: Time Matters in Using Data Augmentation for Vision-based Deep
Reinforcement Learning
- Title(参考訳): ビジョンに基づく深層強化学習におけるデータ拡張の時間的問題
- Authors: Byungchan Ko and Jungseul Ok
- Abstract要約: 増量を使用するタイミングは、トレーニングやテストで解決すべきタスクによって重要になります。
増員によって課される正規化がテストにのみ役立つ場合、サンプルと計算の複雑さの観点からトレーニング中に使用するよりも、トレーニング後の増員を推し進める方がよい。
- 参考スコア(独自算出の注目度): 4.921588282642753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data augmentation technique from computer vision has been widely considered
as a regularization method to improve data efficiency and generalization
performance in vision-based reinforcement learning. We variate the timing of
using augmentation, which is, in turn, critical depending on tasks to be solved
in training and testing. According to our experiments on Open AI Procgen
Benchmark, if the regularization imposed by augmentation is helpful only in
testing, it is better to procrastinate the augmentation after training than to
use it during training in terms of sample and computation complexity. We note
that some of such augmentations can disturb the training process. Conversely,
an augmentation providing regularization useful in training needs to be used
during the whole training period to fully utilize its benefit in terms of not
only generalization but also data efficiency. These phenomena suggest a useful
timing control of data augmentation in reinforcement learning.
- Abstract(参考訳): コンピュータビジョンからのデータ拡張技術は、視覚に基づく強化学習におけるデータ効率と一般化性能を改善するための正規化手法として広く考えられている。
私たちは、トレーニングやテストで解決すべきタスクによって、拡張を使用するタイミングを変動させます。
Open AI Procgen Benchmarkの実験によると、拡張によって課される正規化がテストのみに有効であれば、サンプルと計算の複雑さの観点からトレーニング中に使用するよりも、トレーニング後の拡張を促進すべきである。
このような強化がトレーニングプロセスに支障をきたす可能性があることに留意する。
逆に、一般化だけでなく、データ効率の観点からも、トレーニング期間全体を通じて、トレーニングに有用な正規化を提供する拡張は、そのメリットを完全に活用する必要がある。
これらの現象は、強化学習におけるデータ増強の有用なタイミング制御を示唆している。
関連論文リスト
- Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - A Recipe for Unbounded Data Augmentation in Visual Reinforcement Learning [12.889687274108248]
Q-learningアルゴリズムは、視覚的な観察からトレーニングされた時に、不安定さを過度に調整し、訓練する傾向がある。
そこで本研究では,より広範に拡張可能な一般化されたレシピであるSADAを提案する。
提案手法は,RLエージェントのトレーニング安定性と一般化を,多種多様な拡張セットで大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-27T17:58:23Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - Incorporating Supervised Domain Generalization into Data Augmentation [4.14360329494344]
本稿では,データ拡張の堅牢性と訓練効率を向上させるために,コントラッシブ・セマンティック・アライメント(CSA)ロス法を提案する。
CIFAR-100とCUBデータセットの実験により、提案手法は典型的なデータ拡張の堅牢性とトレーニング効率を向上させることが示された。
論文 参考訳(メタデータ) (2023-10-02T09:20:12Z) - Tied-Augment: Controlling Representation Similarity Improves Data
Augmentation [18.446051824487792]
我々は、広範囲のアプリケーションでデータ拡張を改善するため、Tied-Augmentと呼ばれるフレームワークを提案する。
Tied-Augmentは、データ拡張(RandAugment、mixupなど)、最適化(SAMなど)、半教師付き学習(FixMatchなど)から最先端の手法を改善することができる。
論文 参考訳(メタデータ) (2023-05-22T22:23:40Z) - Time Series Contrastive Learning with Information-Aware Augmentations [57.45139904366001]
コントラスト学習の鍵となる要素は、いくつかの先行を示唆する適切な拡張を選択して、実現可能な正のサンプルを構築することである。
対照的な学習タスクやデータセットに意味のある時系列データの増大をどうやって見つけるかは、未解決の問題である。
本稿では,時系列表現学習のための最適な拡張を適応的に選択する情報認識拡張を用いた新しいコントラスト学習手法であるInfoTSを提案する。
論文 参考訳(メタデータ) (2023-03-21T15:02:50Z) - Efficient and Effective Augmentation Strategy for Adversarial Training [48.735220353660324]
ディープニューラルネットワークの敵対的トレーニングは、標準トレーニングよりもはるかにデータ処理が難しいことが知られている。
本稿では,DAJAT(Diverse Augmentation-based Joint Adversarial Training)を提案する。
論文 参考訳(メタデータ) (2022-10-27T10:59:55Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - BERT WEAVER: Using WEight AVERaging to enable lifelong learning for
transformer-based models in biomedical semantic search engines [49.75878234192369]
We present WEAVER, a simple, yet efficient post-processing method that infuse old knowledge into the new model。
WEAVERを逐次的に適用すると、同じ単語の埋め込み分布が、一度にすべてのデータに対する総合的なトレーニングとして得られることを示す。
論文 参考訳(メタデータ) (2022-02-21T10:34:41Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - Learning Data Augmentation with Online Bilevel Optimization for Image
Classification [14.488360021440448]
本稿では,その一般化を改善するために,変換の効果的な分布を学習するネットワークを自動的に訓練する効率的な手法を提案する。
共同学習法は手作業によるデータ拡張に匹敵する画像分類精度が得られた。
論文 参考訳(メタデータ) (2020-06-25T21:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。