論文の概要: Learning Instance-Specific Data Augmentations
- arxiv url: http://arxiv.org/abs/2206.00051v1
- Date: Tue, 31 May 2022 18:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:15:39.965188
- Title: Learning Instance-Specific Data Augmentations
- Title(参考訳): インスタンス固有のデータ拡張の学習
- Authors: Ning Miao, Emile Mathieu, Yann Dubois, Tom Rainforth, Yee Whye Teh,
Adam Foster, Hyunjik Kim
- Abstract要約: 既存のデータ拡張手法は、変換と入力の独立性を前提としている。
データから入力固有の拡張を自動的に学習するInstaAugを提案する。
- 参考スコア(独自算出の注目度): 62.70897571389785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing data augmentation methods typically assume independence between
transformations and inputs: they use the same transformation distribution for
all input instances. We explain why this can be problematic and propose
InstaAug, a method for automatically learning input-specific augmentations from
data. This is achieved by introducing an augmentation module that maps an input
to a distribution over transformations. This is simultaneously trained
alongside the base model in a fully end-to-end manner using only the training
data. We empirically demonstrate that InstaAug learns meaningful augmentations
for a wide range of transformation classes, which in turn provides better
performance on supervised and self-supervised tasks compared with augmentations
that assume input--transformation independence.
- Abstract(参考訳): 既存のデータ拡張手法は通常、変換と入力の間の独立性を前提とします。
そこで本研究では,データから入力固有の拡張を自動学習するInstaAugを提案する。
これは変換上の分布への入力をマッピングする拡張モジュールを導入することで実現される。
これはトレーニングデータのみを使用して、ベースモデルと完全にエンドツーエンドで同時にトレーニングされる。
InstaAugは、幅広い変換クラスにおいて有意義な拡張を学習し、その結果、インプット-トランスフォーメーション独立を前提とした拡張よりも、教師付きおよび自己監督型のタスクにおいて優れたパフォーマンスを提供する。
関連論文リスト
- Learning to Transform for Generalizable Instance-wise Invariance [48.647925994707855]
どのような画像であっても、正規化フローを使用して変換上の分布を予測し、それらの上の予測を平均化する。
この正規化フローはエンドツーエンドでトレーニングされており、AugerinoやInstaAugよりもはるかに広い範囲の変換を学ぶことができる。
CIFAR10, CIFAR10-LT, TinyImageNetの精度とロバスト性向上を示す。
論文 参考訳(メタデータ) (2023-09-28T17:59:58Z) - Amortised Invariance Learning for Contrastive Self-Supervision [11.042648980854485]
対照的な自己監督のために, 償却不変学習の概念を導入する。
我々のアモーテッド機能は、異なる不変条件で様々な下流タスクを学習する信頼性の高い方法を提供することを示す。
これは、汎用表現学習の分野での新しい地平を開くエキサイティングな視点を提供する。
論文 参考訳(メタデータ) (2023-02-24T16:15:11Z) - EquiMod: An Equivariance Module to Improve Self-Supervised Learning [77.34726150561087]
自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
学習された潜在空間を構成する一般同値加群であるEquiModを導入する。
論文 参考訳(メタデータ) (2022-11-02T16:25:54Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Rotating spiders and reflecting dogs: a class conditional approach to
learning data augmentation distributions [0.0]
拡張変換のクラス条件分布を学習する手法を提案する。
メソッドがクラスによって異なる意味のない変換を学習する例をいくつか挙げる。
本手法は,潜在的に複雑なデータセットに固有の対称性を探索するためのツールとして利用できる。
論文 参考訳(メタデータ) (2021-06-07T23:36:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。