論文の概要: Task Augmentation by Rotating for Meta-Learning
- arxiv url: http://arxiv.org/abs/2003.00804v1
- Date: Sat, 8 Feb 2020 07:57:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 23:06:09.278982
- Title: Task Augmentation by Rotating for Meta-Learning
- Title(参考訳): メタラーニングのための回転によるタスク拡張
- Authors: Jialin Liu, Fei Chao, Chih-Min Lin
- Abstract要約: そこで本研究では,原画像90,180,270度を回転させることにより,クラス数を増加させるタスク拡張手法を提案する。
実験結果から,MiniImageNet, CIFAR-FS, FC100における画像の回転数の増加と最先端性能の向上は,本手法の方が優れていることがわかった。
- 参考スコア(独自算出の注目度): 5.646772123578524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is one of the most effective approaches for improving the
accuracy of modern machine learning models, and it is also indispensable to
train a deep model for meta-learning. In this paper, we introduce a task
augmentation method by rotating, which increases the number of classes by
rotating the original images 90, 180 and 270 degrees, different from
traditional augmentation methods which increase the number of images. With a
larger amount of classes, we can sample more diverse task instances during
training. Therefore, task augmentation by rotating allows us to train a deep
network by meta-learning methods with little over-fitting. Experimental results
show that our approach is better than the rotation for increasing the number of
images and achieves state-of-the-art performance on miniImageNet, CIFAR-FS, and
FC100 few-shot learning benchmarks. The code is available on
\url{www.github.com/AceChuse/TaskLevelAug}.
- Abstract(参考訳): データ拡張は、現代の機械学習モデルの精度を改善するための最も効果的なアプローチの1つであり、メタ学習のための深層モデルのトレーニングも不可欠である。
本稿では,従来の増補法とは異なり,90,180,270度回転することでクラス数を増加させるような回転によるタスク増補法を提案する。
クラスが多ければ、トレーニング中にもっと多様なタスクインスタンスをサンプリングできます。
そのため、回転によるタスク強化により、過度に適合しないメタラーニング手法により、ディープネットワークを訓練することができる。
実験結果から,本手法は画像数を増やすための回転よりも優れており,MiniImageNet,CIFAR-FS,FC100数ショット学習ベンチマーク上での最先端性能を実現していることがわかった。
コードは \url{www.github.com/acechuse/tasklevelaug} で入手できる。
関連論文リスト
- MOWA: Multiple-in-One Image Warping Model [65.73060159073644]
本研究で提案するマルチ・イン・ワン・イメージ・ワープ・モデル(MOWA)について述べる。
領域レベルと画素レベルでの動作推定を両立させることにより,マルチタスク学習の難しさを軽減する。
私たちの知る限り、これは1つのモデルで複数の実用的なワープタスクを解決する最初の作業です。
論文 参考訳(メタデータ) (2024-04-16T16:50:35Z) - Gated Self-supervised Learning For Improving Supervised Learning [1.784933900656067]
本稿では,複数の局所化可能な拡張法とゲーティング手法を組み合わせることで,画像分類のための自己教師型学習手法を提案する。
我々のアプローチでは、回転に加え、フリップとシャッフルのチャネル拡張を使用し、モデルがデータからリッチな特徴を学習することができる。
論文 参考訳(メタデータ) (2023-01-14T09:32:12Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Residual Relaxation for Multi-view Representation Learning [64.40142301026805]
マルチビュー手法は、同じ画像の複数のビューをアライメントすることで学習する。
画像回転などの有用な拡張は、セマンティックシフトを引き起こすため、多視点法には有害である。
我々は,Pretext-aware Residual Relaxation (Prelax) という汎用的な手法を開発し,正確なアライメントを緩和する。
論文 参考訳(メタデータ) (2021-10-28T17:57:17Z) - Memory Efficient Meta-Learning with Large Images [62.70515410249566]
数ショットの分類に対するメタ学習アプローチは、新しいタスクを学ぶために、ほんの数ステップの最適化やシングルフォワードパスを必要とするテスト時に計算的に効率的である。
この制限は、最大1000のイメージを含むタスクの全体サポートセットが、最適化ステップを取る前に処理されなければならないために生じる。
本稿では,1つのGPU上の大容量画像からなる大規模タスクのメタトレーニングを可能にする,汎用的でメモリ効率の良いエピソード・トレーニング手法であるLITEを提案する。
論文 参考訳(メタデータ) (2021-07-02T14:37:13Z) - Learning to Resize Images for Computer Vision Tasks [15.381549764216134]
そこで本研究では,リニアリシライザを学習リシライザに置き換えることで,性能を大幅に向上できることを示す。
我々の学習画像復調器はベースライン視覚モデルで共同で訓練されている。
提案手法は,他の視覚タスクの分類ベースラインの微調整にも有用であることを示す。
論文 参考訳(メタデータ) (2021-03-17T23:43:44Z) - Improving Few-Shot Learning using Composite Rotation based Auxiliary
Task [39.8046809855363]
本稿では, 複合回転型補助タスクを用いて, 複数ショットの分類性能を向上させる手法を提案する。
提案手法は,複数のベンチマークデータセットにおいて,既存の数ショット学習手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-29T10:21:35Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。