論文の概要: Data Augmentation via Structured Adversarial Perturbations
- arxiv url: http://arxiv.org/abs/2011.03010v1
- Date: Thu, 5 Nov 2020 18:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:23:17.175112
- Title: Data Augmentation via Structured Adversarial Perturbations
- Title(参考訳): structured adversarial perturbationによるデータ拡張
- Authors: Calvin Luo, Hossein Mobahi, Samy Bengio
- Abstract要約: そこで本研究では,所望の自然構造を維持する逆例を生成する手法を提案する。
我々はこの手法を、測光と幾何の2種類の画像変換を通して実証する。
- 参考スコア(独自算出の注目度): 25.31035665982414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is a major component of many machine learning methods with
state-of-the-art performance. Common augmentation strategies work by drawing
random samples from a space of transformations. Unfortunately, such sampling
approaches are limited in expressivity, as they are unable to scale to rich
transformations that depend on numerous parameters due to the curse of
dimensionality. Adversarial examples can be considered as an alternative scheme
for data augmentation. By being trained on the most difficult modifications of
the inputs, the resulting models are then hopefully able to handle other,
presumably easier, modifications as well. The advantage of adversarial
augmentation is that it replaces sampling with the use of a single, calculated
perturbation that maximally increases the loss. The downside, however, is that
these raw adversarial perturbations appear rather unstructured; applying them
often does not produce a natural transformation, contrary to a desirable data
augmentation technique. To address this, we propose a method to generate
adversarial examples that maintain some desired natural structure. We first
construct a subspace that only contains perturbations with the desired
structure. We then project the raw adversarial gradient onto this space to
select a structured transformation that would maximally increase the loss when
applied. We demonstrate this approach through two types of image
transformations: photometric and geometric. Furthermore, we show that training
on such structured adversarial images improves generalization.
- Abstract(参考訳): データ拡張は、最先端のパフォーマンスを持つ多くの機械学習手法の主要なコンポーネントである。
一般的な拡張戦略は、変換の空間からランダムサンプルを描くことで機能する。
残念ながら、このようなサンプリングアプローチは、次元性の呪いによって多くのパラメータに依存するリッチ変換にスケールできないため、表現性に制限がある。
逆の例は、データ拡張の代替スキームと見なすことができる。
入力の最も難しい修正を訓練することで、結果として得られるモデルは、他の、おそらくより簡単な修正も処理できることを願っている。
逆拡大の利点は、サンプリングを、最大に損失を増加させる単一の計算された摂動を用いて置き換えることである。
しかし欠点は、これらの生の対向的摂動は比較的非構造的に見えることであり、それらを適用すると、望ましいデータ拡張技術とは対照的に、しばしば自然な変換が起こらないことである。
そこで本研究では, 望ましい自然構造を維持できる逆例を生成する手法を提案する。
まず、所望の構造を持つ摂動のみを含む部分空間を構築する。
次に、この空間に生の逆勾配を投影し、適用した場合の損失を最大に増加させる構造化変換を選択する。
我々はこの手法を、測光と幾何の2種類の画像変換を通して実証する。
さらに、このような構造化逆画像のトレーニングにより一般化が向上することを示す。
関連論文リスト
- Enhancing 3D Transformer Segmentation Model for Medical Image with Token-level Representation Learning [9.896550384001348]
本研究は、異なる拡張ビューからのトークン埋め込み間の合意を最大化するトークンレベルの表現学習損失を提案する。
また、入力ボリュームの1つの拡張ビューを回転・反転させ、後に特徴写像のトークンの順序を復元するシンプルな「回転・再保存」機構を発明する。
筆者らは2つの公開医療セグメント化データセットで事前トレーニングを行い、下流セグメンテーションタスクの結果は、他の最先端のプレトレーニング手法よりも、我々の方法の改善を示す。
論文 参考訳(メタデータ) (2024-08-12T01:49:13Z) - Unsupervised Learning of Invariance Transformations [105.54048699217668]
近似グラフ自己同型を見つけるためのアルゴリズムフレームワークを開発する。
重み付きグラフにおける近似自己同型を見つけるために、このフレームワークをどのように利用できるかについて議論する。
論文 参考訳(メタデータ) (2023-07-24T17:03:28Z) - Adversarial and Random Transformations for Robust Domain Adaptation and
Generalization [9.995765847080596]
ランダムデータ拡張による整合性トレーニングを単純に適用することで、ドメイン適応(DA)と一般化(DG)の最先端結果が得られることを示す。
逆変換とランダム変換を組み合わせた手法は、複数のDAおよびDGベンチマークデータセット上で最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-11-13T02:10:13Z) - Robust Universal Adversarial Perturbations [2.825323579996619]
実世界の変換に対して堅牢なUAPを導入・定式化する。
以上の結果から,本手法は最先端のベースラインよりも最大23%強靭なUAPを生成することができることがわかった。
論文 参考訳(メタデータ) (2022-06-22T06:05:30Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Improving Robustness of Adversarial Attacks Using an Affine-Invariant
Gradient Estimator [15.863109283735625]
敵対的な例は、知覚不能な摂動で応答を著しく変化させることで、ディープニューラルネットワーク(DNN)を欺くことができる。
既存の敵の例のほとんどは、結果の例にアフィン変換を適用すると、悪意のある機能を維持できない。
本稿では,アフィン変換の分布に対して頑健な逆数例を一貫して構築できるアフィン不変逆数攻撃を提案する。
論文 参考訳(メタデータ) (2021-09-13T09:43:17Z) - CADDA: Class-wise Automatic Differentiable Data Augmentation for EEG
Signals [92.60744099084157]
本研究では、勾配に基づく学習に適した微分可能データ拡張を提案する。
本研究は,臨床関連睡眠ステージ分類課題におけるアプローチの意義を示す。
論文 参考訳(メタデータ) (2021-06-25T15:28:48Z) - Adversarial Semantic Data Augmentation for Human Pose Estimation [96.75411357541438]
本研究では,セマンティックデータ拡張法 (SDA) を提案する。
また,適応的セマンティックデータ拡張 (ASDA) を提案する。
最先端の結果は、挑戦的なベンチマークで得られます。
論文 参考訳(メタデータ) (2020-08-03T07:56:04Z) - On Compositions of Transformations in Contrastive Self-Supervised
Learning [66.15514035861048]
本稿では,コントラスト学習をより広範な変換集合に一般化する。
特定の変換に不変であり、他の変換に特有であることは、効果的なビデオ表現の学習に不可欠である。
論文 参考訳(メタデータ) (2020-03-09T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。