論文の概要: Challenges of Adversarial Image Augmentations
- arxiv url: http://arxiv.org/abs/2111.12427v1
- Date: Wed, 24 Nov 2021 11:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-25 14:37:29.679149
- Title: Challenges of Adversarial Image Augmentations
- Title(参考訳): 敵対的画像拡張の課題
- Authors: Arno Blaas, Xavier Suau, Jason Ramapuram, Nicholas Apostoloff, Luca
Zappella
- Abstract要約: 単純なランダム拡張ポリシーであるRandAugmentは、最近、既存の高度なポリシーより優れていることが示されている。
AdvAA(Adversarial AutoAugment)はRandAugmentよりも優れている。
- 参考スコア(独自算出の注目度): 3.1546559046354545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image augmentations applied during training are crucial for the
generalization performance of image classifiers. Therefore, a large body of
research has focused on finding the optimal augmentation policy for a given
task. Yet, RandAugment [2], a simple random augmentation policy, has recently
been shown to outperform existing sophisticated policies. Only Adversarial
AutoAugment (AdvAA) [11], an approach based on the idea of adversarial
training, has shown to be better than RandAugment. In this paper, we show that
random augmentations are still competitive compared to an optimal adversarial
approach, as well as to simple curricula, and conjecture that the success of
AdvAA is due to the stochasticity of the policy controller network, which
introduces a mild form of curriculum.
- Abstract(参考訳): 画像分類器の一般化性能には,訓練中に適用した画像拡張が重要である。
そのため、研究機関は与えられたタスクに最適な拡張ポリシーを見つけることに重点を置いている。
しかし、RandAugment [2]は、最近、既存の洗練されたポリシーより優れていることが示されている。
対人訓練の考え方に基づくアプローチであるAdvAA (AdvAA) [11] は、RandAugment よりも優れていることが示されている。
そこで,本論文では,ランダムな増補が,最適な対向的アプローチと単純な曲率とに比較してまだ競争力があることを示すとともに,advaaの成功は,軽度なカリキュラムを導入する政策管理ネットワークの確率性によるものであると推測する。
関連論文リスト
- Representation-Driven Reinforcement Learning [57.44609759155611]
強化学習のための表現駆動型フレームワークを提案する。
期待値の見積もりとしてポリシーを表現することにより、我々は、探索と搾取を導くために、文脈的盗賊の手法を活用する。
このフレームワークの有効性を,進化的および政策的勾配に基づくアプローチに適用することによって実証する。
論文 参考訳(メタデータ) (2023-05-31T14:59:12Z) - Improving the Transferability of Adversarial Samples by Path-Augmented
Method [38.41363108018462]
本稿では,拡張意味論と一貫性のない画像の落とし穴を克服するパス拡張手法を提案する。
PAMは、攻撃成功率の点で最先端のベースラインと比較して平均4.8%以上の改善を達成できる。
論文 参考訳(メタデータ) (2023-03-28T05:14:04Z) - G-Augment: Searching For The Meta-Structure Of Data Augmentation
Policies For ASR [85.5426366121322]
Graph-Augmentは拡張空間を有向非巡回グラフ(DAG)として定義する手法である
我々は,G-Augment が作成するポリシが,計算予算が同じである場合,微調整タスクにおける SpecAugment のポリシーよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-19T20:39:40Z) - Towards an Understanding of Default Policies in Multitask Policy
Optimization [29.806071693039655]
近年の強化学習の成功の多くは、正規化ポリシー最適化(RPO)アルゴリズムによって推進されている。
このギャップを埋める第一歩として、デフォルトポリシーの品質と最適化の効果を正式にリンクします。
次に,高い性能保証を有するマルチタスク学習のための原理的RPOアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-11-04T16:45:15Z) - Off-policy Reinforcement Learning with Optimistic Exploration and
Distribution Correction [73.77593805292194]
我々は、政治以外のアクター批判的枠組みにおいて、批評家のほぼ上位信頼度を最大化するために、別の調査政策を訓練する。
最近導入されたDICEフレームワークを応用して、非政治アクター犯罪訓練のための分布補正比を学習する。
論文 参考訳(メタデータ) (2021-10-22T22:07:51Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - State Augmented Constrained Reinforcement Learning: Overcoming the
Limitations of Learning with Rewards [88.30521204048551]
制約付き強化学習の一般的な定式化には、与えられた閾値に個別に蓄積しなければならない複数の報酬が含まれる。
ここでは,任意の重み付けされた報酬の線形結合によって,所望の最適政策を誘導できない簡単な例を示す。
この研究は、ラグランジュ乗算器で状態を増大させ、原始双対法を再解釈することで、この欠点に対処する。
論文 参考訳(メタデータ) (2021-02-23T21:07:35Z) - Invariant Policy Optimization: Towards Stronger Generalization in
Reinforcement Learning [5.476958867922322]
強化学習の基本的な課題は、訓練中に経験した操作領域を超えて一般化するポリシーを学ぶことである。
本稿では,この原則を実装した新しい学習アルゴリズムである不変ポリシー最適化(IPO)を提案し,トレーニング中に不変ポリシーを学習する。
論文 参考訳(メタデータ) (2020-06-01T17:28:19Z) - Greedy Policy Search: A Simple Baseline for Learnable Test-Time
Augmentation [65.92151529708036]
我々は,テスト時間拡張のポリシーを学習するための簡易かつ高性能な方法として,greedy Policy Search (GPS)を導入した。
画像分類問題においてGPSで学習した拡張ポリシーが優れた予測性能を実現することを実証する。
論文 参考訳(メタデータ) (2020-02-21T02:57:13Z) - Population-Guided Parallel Policy Search for Reinforcement Learning [17.360163137926]
都市外強化学習(RL)の性能向上を図るために,新たな人口誘導型並列学習手法を提案する。
提案手法では,複数の同一学習者が独自の値関数とポリシーを共用し,共通体験再生バッファを共有し,最良のポリシー情報のガイダンスと協調して適切なポリシーを探索する。
論文 参考訳(メタデータ) (2020-01-09T10:13:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。