論文の概要: Rotating spiders and reflecting dogs: a class conditional approach to
learning data augmentation distributions
- arxiv url: http://arxiv.org/abs/2106.04009v1
- Date: Mon, 7 Jun 2021 23:36:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-09 15:48:45.012867
- Title: Rotating spiders and reflecting dogs: a class conditional approach to
learning data augmentation distributions
- Title(参考訳): 回転するクモと反射犬--学習データ強化分布に対するクラス条件付きアプローチ
- Authors: Scott Mahan, Henry Kvinge, Tim Doster
- Abstract要約: 拡張変換のクラス条件分布を学習する手法を提案する。
メソッドがクラスによって異なる意味のない変換を学習する例をいくつか挙げる。
本手法は,潜在的に複雑なデータセットに固有の対称性を探索するためのツールとして利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building invariance to non-meaningful transformations is essential to
building efficient and generalizable machine learning models. In practice, the
most common way to learn invariance is through data augmentation. There has
been recent interest in the development of methods that learn distributions on
augmentation transformations from the training data itself. While such
approaches are beneficial since they are responsive to the data, they ignore
the fact that in many situations the range of transformations to which a model
needs to be invariant changes depending on the particular class input belongs
to. For example, if a model needs to be able to predict whether an image
contains a starfish or a dog, we may want to apply random rotations to starfish
images during training (since these do not have a preferred orientation), but
we would not want to do this to images of dogs. In this work we introduce a
method by which we can learn class conditional distributions on augmentation
transformations. We give a number of examples where our methods learn different
non-meaningful transformations depending on class and further show how our
method can be used as a tool to probe the symmetries intrinsic to a potentially
complex dataset.
- Abstract(参考訳): 非意味な変換に対する不変性の構築は、効率的で一般化可能な機械学習モデルを構築する上で不可欠である。
実際には、不変性を学ぶ最も一般的な方法は、データの強化である。
近年,トレーニングデータ自体から拡張変換の分布を学習する手法の開発への関心が高まっている。
このようなアプローチはデータに応答するので有益であるが、多くの状況において、モデルが特定のクラス入力に依存する不変な変更を必要とする変換の範囲が属するという事実を無視する。
例えば、もしあるモデルが、ある画像がヒトデかイヌを含んでいるかどうかを予測できる必要があるなら、トレーニング中に無作為な回転をヒトデの画像に適用したいかもしれません(これらは好ましい向きを持っていないので)が、犬の画像には当てはまらないでしょう。
本研究では,拡張変換のクラス条件分布を学習する手法を提案する。
提案手法は,クラスによって異なる非意味変換を学習する例を多数提示し,さらに,潜在的に複雑なデータセットに固有の対称性を探索するためのツールとして,我々の手法をどのように利用できるかを示す。
関連論文リスト
- Learning to Transform for Generalizable Instance-wise Invariance [48.647925994707855]
どのような画像であっても、正規化フローを使用して変換上の分布を予測し、それらの上の予測を平均化する。
この正規化フローはエンドツーエンドでトレーニングされており、AugerinoやInstaAugよりもはるかに広い範囲の変換を学ぶことができる。
CIFAR10, CIFAR10-LT, TinyImageNetの精度とロバスト性向上を示す。
論文 参考訳(メタデータ) (2023-09-28T17:59:58Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - EquiMod: An Equivariance Module to Improve Self-Supervised Learning [77.34726150561087]
自己教師付き視覚表現法は教師付き学習性能とのギャップを埋めている。
これらの手法は、データ拡張によって生成された関連する合成入力の埋め込みの類似性を最大化することに依存する。
学習された潜在空間を構成する一般同値加群であるEquiModを導入する。
論文 参考訳(メタデータ) (2022-11-02T16:25:54Z) - Learning Instance-Specific Augmentations by Capturing Local Invariances [62.70897571389785]
InstaAugは、データから入力固有の拡張を自動的に学習する方法である。
InstaAugは、幅広い変換クラスに対して意味のある入力依存の強化を学ぶことを実証的に示す。
論文 参考訳(メタデータ) (2022-05-31T18:38:06Z) - Do Deep Networks Transfer Invariances Across Classes? [123.84237389985236]
ニュアンス変換を学習するための生成的アプローチが、クラス間での不変性の伝達にどのように役立つかを示す。
この結果から,不均衡分布や細長い分布に対して分類器が不規則に一般化する理由が示唆された。
論文 参考訳(メタデータ) (2022-03-18T04:38:18Z) - TransformNet: Self-supervised representation learning through predicting
geometric transformations [0.8098097078441623]
入力データに適用された幾何変換の認識のための教師なし意味特徴学習手法について述べる。
我々のアプローチの基本概念は、画像中の物体を知らない人が、それらに適用された幾何学的変換を定量的に予測できないことである。
論文 参考訳(メタデータ) (2022-02-08T22:41:01Z) - DNA: Dynamic Network Augmentation [0.0]
入力条件拡張ポリシーを学習する動的ネットワーク拡張(DNA)を導入する。
我々のモデルは動的拡張ポリシーを可能にし、入力特徴に条件付き幾何変換を持つデータに対してうまく機能する。
論文 参考訳(メタデータ) (2021-12-17T01:43:56Z) - Training or Architecture? How to Incorporate Invariance in Neural
Networks [14.162739081163444]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変化する手法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
このような手法の特性を解析し、等変ネットワークに拡張し、その利点を頑健さと計算効率の両面からいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-06-18T10:31:00Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Meta-Learning Symmetries by Reparameterization [63.85144439337671]
データから対応するパラメータ共有パターンを学習し、等価性をネットワークに学習し、符号化する手法を提案する。
本実験は,画像処理タスクで使用される共通変換に等価性をエンコードして自動的に学習できることを示唆する。
論文 参考訳(メタデータ) (2020-07-06T17:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。