論文の概要: OnlineAugment: Online Data Augmentation with Less Domain Knowledge
- arxiv url: http://arxiv.org/abs/2007.09271v2
- Date: Sat, 22 Aug 2020 19:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:33:37.466084
- Title: OnlineAugment: Online Data Augmentation with Less Domain Knowledge
- Title(参考訳): OnlineAugment: ドメイン知識の少ないオンラインデータ拡張
- Authors: Zhiqiang Tang, Yunhe Gao, Leonid Karlinsky, Prasanna Sattigeri,
Rogerio Feris, Dimitris Metaxas
- Abstract要約: 対象学習課題と協調して学習する3つの新しい拡張ネットワークを備えたオンラインデータ拡張スキームを提案する。
これは、新しいドメインに入る際に高価なオフライントレーニングを必要とせず、学習者の状態に適応するため、より効率的である。
私たちの拡張ネットワークはドメイン知識を少なくし、新しいタスクに容易に適用できます。
- 参考スコア(独自算出の注目度): 22.792492258360234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is one of the most important tools in training modern deep
neural networks. Recently, great advances have been made in searching for
optimal augmentation policies in the image classification domain. However, two
key points related to data augmentation remain uncovered by the current
methods. First is that most if not all modern augmentation search methods are
offline and learning policies are isolated from their usage. The learned
policies are mostly constant throughout the training process and are not
adapted to the current training model state. Second, the policies rely on
class-preserving image processing functions. Hence applying current offline
methods to new tasks may require domain knowledge to specify such kind of
operations. In this work, we offer an orthogonal online data augmentation
scheme together with three new augmentation networks, co-trained with the
target learning task. It is both more efficient, in the sense that it does not
require expensive offline training when entering a new domain, and more
adaptive as it adapts to the learner state. Our augmentation networks require
less domain knowledge and are easily applicable to new tasks. Extensive
experiments demonstrate that the proposed scheme alone performs on par with the
state-of-the-art offline data augmentation methods, as well as improving upon
the state-of-the-art in combination with those methods. Code is available at
https://github.com/zhiqiangdon/online-augment .
- Abstract(参考訳): データ拡張は、現代のディープニューラルネットワークをトレーニングする上で最も重要なツールの1つである。
近年,画像分類領域における最適拡張ポリシーの探索において大きな進歩がみられた。
しかし、データ拡張に関連する2つの重要な点は、現在の方法によって明らかにされていない。
ひとつは、近代的な拡張検索手法がすべてオフラインで、学習ポリシーが利用から切り離されているかどうかだ。
学習されたポリシはトレーニングプロセスを通じてほぼ一定であり、現在のトレーニングモデル状態には適用されない。
第二に、ポリシーはクラス保存画像処理機能に依存している。
したがって、現在のオフラインメソッドを新しいタスクに適用するには、そのような操作を指定するためにドメイン知識が必要である。
本研究では,対象学習課題と協調して学習する3つの新しい拡張ネットワークとともに,直交型オンラインデータ拡張スキームを提供する。
新しいドメインに入る際に高価なオフライントレーニングを必要としないという意味でも、学習者状態に合わせて適応するという意味でも、より効率的である。
私たちの拡張ネットワークはドメイン知識を少なくし、新しいタスクに容易に適用できます。
大規模な実験により、提案手法は、最先端のオフラインデータ拡張手法と同等に動作し、それらの手法と組み合わせて最先端のオフラインデータ拡張法を改善する。
コードはhttps://github.com/zhiqiangdon/online-augmentで入手できる。
関連論文リスト
- Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Efficient Online Reinforcement Learning with Offline Data [78.92501185886569]
オンライン学習時にオフラインデータを活用するために、既存のオフライン手法を単純に適用できることを示します。
私たちはこれらの設計選択を広範囲に改善し、パフォーマンスに最も影響を与える重要な要因を示します。
これらのシンプルなレコメンデーションの正しい適用によって、既存のアプローチよりも$mathbf2.5times$の改善が得られます。
論文 参考訳(メタデータ) (2023-02-06T17:30:22Z) - PIVOT: Prompting for Video Continual Learning [50.80141083993668]
PIVOTは、画像領域から事前学習したモデルにおける広範な知識を活用する新しい手法である。
実験の結果,PIVOTは20タスクのアクティビティネット設定において,最先端の手法を27%向上することがわかった。
論文 参考訳(メタデータ) (2022-12-09T13:22:27Z) - Adversarial Auto-Augment with Label Preservation: A Representation
Learning Principle Guided Approach [95.74102207187545]
本研究では,事前自由な自律的データ拡張の目的が表現学習の原則から導出可能であることを示す。
そこで我々は,既存の手法にシームレスに最適化し,シームレスに統合できる目的に対して,実用的なサロゲートを提案する。
論文 参考訳(メタデータ) (2022-11-02T02:02:51Z) - Efficiently Learning Small Policies for Locomotion and Manipulation [12.340412143459869]
グラフハイパーネットワークを活用して、非政治強化学習で訓練されたグラフハイパーポリシーを学習する。
本手法は,任意の非政治強化学習アルゴリズムに付加可能であることを示す。
パラメータ数に対する制約を考慮し,最適なアーキテクチャを選択する方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T23:49:00Z) - Augmentation Learning for Semi-Supervised Classification [13.519613713213277]
本稿では,特定のデータセットに対して最も効果的なデータ拡張ポリシーを自動選択する半教師付き学習手法を提案する。
ImageNet以外のデータセットへの拡張にポリシー学習をどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-08-03T10:06:51Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。