論文の概要: Learning Data Augmentation with Online Bilevel Optimization for Image
Classification
- arxiv url: http://arxiv.org/abs/2006.14699v2
- Date: Tue, 10 Nov 2020 16:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 02:55:08.426789
- Title: Learning Data Augmentation with Online Bilevel Optimization for Image
Classification
- Title(参考訳): 画像分類のためのオンラインバイレベル最適化による学習データ強化
- Authors: Saypraseuth Mounsaveng, Issam Laradji, Ismail Ben Ayed, David Vazquez,
Marco Pedersoli
- Abstract要約: 本稿では,その一般化を改善するために,変換の効果的な分布を学習するネットワークを自動的に訓練する効率的な手法を提案する。
共同学習法は手作業によるデータ拡張に匹敵する画像分類精度が得られた。
- 参考スコア(独自算出の注目度): 14.488360021440448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a key practice in machine learning for improving
generalization performance. However, finding the best data augmentation
hyperparameters requires domain knowledge or a computationally demanding
search. We address this issue by proposing an efficient approach to
automatically train a network that learns an effective distribution of
transformations to improve its generalization. Using bilevel optimization, we
directly optimize the data augmentation parameters using a validation set. This
framework can be used as a general solution to learn the optimal data
augmentation jointly with an end task model like a classifier. Results show
that our joint training method produces an image classification accuracy that
is comparable to or better than carefully hand-crafted data augmentation. Yet,
it does not need an expensive external validation loop on the data augmentation
hyperparameters.
- Abstract(参考訳): データ拡張は、一般化性能を改善するための機械学習の重要なプラクティスである。
しかし、最高のデータ拡張ハイパーパラメータを見つけるには、ドメイン知識や計算上要求される検索が必要である。
本稿では,変換の効果的な分布を学習し,その一般化を改善するためのネットワークの自動学習手法を提案する。
バイレベル最適化を用いて,検証セットを用いてデータ拡張パラメータを直接最適化する。
このフレームワークは、分類器のようなエンドタスクモデルと共同で最適なデータ拡張を学ぶための一般的なソリューションとして使用できる。
以上の結果から,共同学習法では,手作りデータ拡張法に比べて画像分類精度が向上し,精度も向上した。
しかし、データ拡張ハイパーパラメータに関する高価な外部検証ループは必要ない。
関連論文リスト
- Domain Generalization by Rejecting Extreme Augmentations [13.114457707388283]
ドメイン外およびドメインの一般化設定では、データ拡張が顕著で堅牢なパフォーマンス向上をもたらすことを示す。
i)標準データ拡張変換の均一サンプリング,(ii)ドメイン外での作業において期待される高いデータ分散を考慮した強度変換,(iii)トレーニングを損なうような極端な変換を拒否する新たな報酬関数を考案する,という簡単なトレーニング手順を提案する。
論文 参考訳(メタデータ) (2023-10-10T14:46:22Z) - Incorporating Supervised Domain Generalization into Data Augmentation [4.14360329494344]
本稿では,データ拡張の堅牢性と訓練効率を向上させるために,コントラッシブ・セマンティック・アライメント(CSA)ロス法を提案する。
CIFAR-100とCUBデータセットの実験により、提案手法は典型的なデータ拡張の堅牢性とトレーニング効率を向上させることが示された。
論文 参考訳(メタデータ) (2023-10-02T09:20:12Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - TeachAugment: Data Augmentation Optimization Using Teacher Knowledge [11.696069523681178]
本稿では,TeachAugment と呼ばれる逆戦略に基づくデータ拡張最適化手法を提案する。
画像分類,セマンティックセグメンテーション,教師なし表現学習において,TeachAugmentは既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:22:51Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Automatic tuning of hyper-parameters of reinforcement learning
algorithms using Bayesian optimization with behavioral cloning [0.0]
強化学習(RL)では、学習エージェントが収集したデータの情報内容は多くのハイパーパラメータの設定に依存する。
本研究では,ベイズ最適化を用いた自律的ハイパーパラメータ設定手法を提案する。
実験は、他の手作業による調整や最適化ベースのアプローチと比較して、有望な結果を示している。
論文 参考訳(メタデータ) (2021-12-15T13:10:44Z) - Dynamic Data Augmentation with Gating Networks [5.251019642214251]
本稿では,互いに有利なゲーティングネットワークと特徴整合損失を用いて,最適な組み合わせを動的に選択するニューラルネットワークを提案する。
実験では,2018 UCR Time Series Archiveの12大時系列データセットに対して提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-11-05T04:24:51Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。