論文の概要: Learning Instance-Specific Augmentations by Capturing Local Invariances
- arxiv url: http://arxiv.org/abs/2206.00051v3
- Date: Tue, 30 May 2023 15:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 03:06:08.022382
- Title: Learning Instance-Specific Augmentations by Capturing Local Invariances
- Title(参考訳): 局所的不変性を考慮した学習事例別拡張
- Authors: Ning Miao, Tom Rainforth, Emile Mathieu, Yann Dubois, Yee Whye Teh,
Adam Foster, Hyunjik Kim
- Abstract要約: InstaAugは、データから入力固有の拡張を自動的に学習する方法である。
InstaAugは、幅広い変換クラスに対して意味のある入力依存の強化を学ぶことを実証的に示す。
- 参考スコア(独自算出の注目度): 62.70897571389785
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce InstaAug, a method for automatically learning input-specific
augmentations from data. Previous methods for learning augmentations have
typically assumed independence between the original input and the
transformation applied to that input. This can be highly restrictive, as the
invariances we hope our augmentation will capture are themselves often highly
input dependent. InstaAug instead introduces a learnable invariance module that
maps from inputs to tailored transformation parameters, allowing local
invariances to be captured. This can be simultaneously trained alongside the
downstream model in a fully end-to-end manner, or separately learned for a
pre-trained model. We empirically demonstrate that InstaAug learns meaningful
input-dependent augmentations for a wide range of transformation classes, which
in turn provides better performance on both supervised and self-supervised
tasks.
- Abstract(参考訳): データから入力固有の拡張を自動的に学習するInstaAugを紹介する。
拡張学習のこれまでの方法は、通常、元の入力とその入力に適用される変換の間に独立性を仮定していた。
これは非常に制限的であり、拡張がキャプチャされることを願う不変性は、それ自体が高い入力依存である。
InstaAugは代わりに、入力から調整された変換パラメータにマップ可能な不変モジュールを導入し、ローカルな不変性をキャプチャする。
これは、下流モデルと一緒に完全にエンドツーエンドで同時にトレーニングしたり、事前訓練されたモデルで個別に学習したりできる。
InstaAugは、幅広い変換クラスに対して有意義な入力依存の強化を学習し、教師付きタスクと自己管理タスクの両方でより良いパフォーマンスを提供することを実証的に示す。
関連論文リスト
- Learning to Transform for Generalizable Instance-wise Invariance [48.647925994707855]
どのような画像であっても、正規化フローを使用して変換上の分布を予測し、それらの上の予測を平均化する。
この正規化フローはエンドツーエンドでトレーニングされており、AugerinoやInstaAugよりもはるかに広い範囲の変換を学ぶことができる。
CIFAR10, CIFAR10-LT, TinyImageNetの精度とロバスト性向上を示す。
論文 参考訳(メタデータ) (2023-09-28T17:59:58Z) - Amortised Invariance Learning for Contrastive Self-Supervision [11.042648980854485]
対照的な自己監督のために, 償却不変学習の概念を導入する。
我々のアモーテッド機能は、異なる不変条件で様々な下流タスクを学習する信頼性の高い方法を提供することを示す。
これは、汎用表現学習の分野での新しい地平を開くエキサイティングな視点を提供する。
論文 参考訳(メタデータ) (2023-02-24T16:15:11Z) - EquiMod: An Equivariance Module to Improve Self-Supervised Learning [77.34726150561087]
自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
学習された潜在空間を構成する一般同値加群であるEquiModを導入する。
論文 参考訳(メタデータ) (2022-11-02T16:25:54Z) - Regularising for invariance to data augmentation improves supervised
learning [82.85692486314949]
入力毎に複数の拡張を使用すれば、一般化が向上することを示す。
本稿では,個々のモデル予測のレベルにおいて,この不変性を助長する明示的な正規化手法を提案する。
論文 参考訳(メタデータ) (2022-03-07T11:25:45Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Improving Transferability of Representations via Augmentation-Aware
Self-Supervision [117.15012005163322]
AugSelfは、ランダムに強化された2つのサンプル間の拡張パラメータの違いを学習する補助的な自己教師型損失である。
私たちの直感は、AugSelfが学習表現における拡張認識情報の保存を奨励していることです。
AugSelfは、最新の最先端の表現学習手法に、無視できる追加のトレーニングコストで簡単に組み込むことができる。
論文 参考訳(メタデータ) (2021-11-18T10:43:50Z) - Rotating spiders and reflecting dogs: a class conditional approach to
learning data augmentation distributions [0.0]
拡張変換のクラス条件分布を学習する手法を提案する。
メソッドがクラスによって異なる意味のない変換を学習する例をいくつか挙げる。
本手法は,潜在的に複雑なデータセットに固有の対称性を探索するためのツールとして利用できる。
論文 参考訳(メタデータ) (2021-06-07T23:36:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。