論文の概要: Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing
- arxiv url: http://arxiv.org/abs/2112.08796v1
- Date: Thu, 16 Dec 2021 11:27:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-17 13:46:34.120346
- Title: Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing
- Title(参考訳): 塩分グラフト:無害な帰属誘導混合と校正ラベル混合
- Authors: Joonhyung Park, June Yong Yang, Jinwoo Shin, Sung Ju Hwang, Eunho Yang
- Abstract要約: ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
- 参考スコア(独自算出の注目度): 104.630875328668
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Mixup scheme suggests mixing a pair of samples to create an augmented
training sample and has gained considerable attention recently for improving
the generalizability of neural networks. A straightforward and widely used
extension of Mixup is to combine with regional dropout-like methods: removing
random patches from a sample and replacing it with the features from another
sample. Albeit their simplicity and effectiveness, these methods are prone to
create harmful samples due to their randomness. To address this issue, 'maximum
saliency' strategies were recently proposed: they select only the most
informative features to prevent such a phenomenon. However, they now suffer
from lack of sample diversification as they always deterministically select
regions with maximum saliency, injecting bias into the augmented data. In this
paper, we present, a novel, yet simple Mixup-variant that captures the best of
both worlds. Our idea is two-fold. By stochastically sampling the features and
'grafting' them onto another sample, our method effectively generates diverse
yet meaningful samples. Its second ingredient is to produce the label of the
grafted sample by mixing the labels in a saliency-calibrated fashion, which
rectifies supervision misguidance introduced by the random sampling procedure.
Our experiments under CIFAR, Tiny-ImageNet, and ImageNet datasets show that our
scheme outperforms the current state-of-the-art augmentation strategies not
only in terms of classification accuracy, but is also superior in coping under
stress conditions such as data corruption and object occlusion.
- Abstract(参考訳): Mixupスキームは、2組のサンプルを混合して強化トレーニングサンプルを作成することを提案しており、最近、ニューラルネットワークの一般化性を改善するためにかなりの注目を集めている。
Mixupの単純で広く使用されている拡張は、サンプルからランダムなパッチを取り除き、別のサンプルの機能に置き換えるという、地域的なドロップアウトのような方法と組み合わせることである。
単純さと有効性にもかかわらず、これらの手法はランダム性のために有害なサンプルを作成する傾向がある。
この問題に対処するため,このような現象を防止するため,最も情報に富む特徴のみを選別する「最大限のサリエンシ」戦略が最近提案された。
しかし、現在、サンプルの多様化の欠如に悩まされており、最大値の領域を決定論的に選択し、拡張データにバイアスを注入している。
本稿では,両世界の最善を捉えた,新しい,かつ単純なミックスアップ不変量を提案する。
私たちの考えは二つある。
統計的に特徴をサンプリングし、別のサンプルに'グラフト'することで、この手法は効果的に多様な有意義なサンプルを生成する。
第2の成分は、無作為サンプリング手順によって導入された監督ミスガイダンスを正当性校正された方法でラベルを混合することにより、移植標本のラベルを製造することである。
CIFAR, Tiny-ImageNet, ImageNet のデータセットによる実験により,本手法は分類精度だけでなく,データ破損やオブジェクトの隠蔽といったストレス条件下での対処にも優れていることがわかった。
関連論文リスト
- ProxiMix: Enhancing Fairness with Proximity Samples in Subgroups [17.672299431705262]
線形ミックスアップのみを使用することで、バイアス軽減のためのデータ拡張テクニックは、データセットラベルにバイアスを保持することができる。
本稿では,既存の混合手法と新たなバイアス軽減アルゴリズムの両方を活用可能な,新しい前処理手法を提案する。
ProxiMixは、より公平なデータ拡張のために、ペアワイズと近接関係を保持します。
論文 参考訳(メタデータ) (2024-10-02T00:47:03Z) - Which Pretrain Samples to Rehearse when Finetuning Pretrained Models? [60.59376487151964]
特定のタスクに関する微調整済みモデルが、テキストとビジョンタスクの事実上のアプローチになった。
このアプローチの落とし穴は、微調整中に起こる事前学習の知識を忘れることである。
本研究では,実際に忘れられているサンプルを識別・優先順位付けする新しいサンプリング手法であるmix-cdを提案する。
論文 参考訳(メタデータ) (2024-02-12T22:32:12Z) - BSGAN: A Novel Oversampling Technique for Imbalanced Pattern
Recognitions [0.0]
クラス不均衡問題(CIP)は、予測のための非バイアスの機械学習(ML)モデルを開発する際の潜在的な課題の1つである。
CIPは、データサンプルが2つまたは複数のクラス間で等しく分散されていない場合に発生する。
本研究では,より多様なデータを生成するために,境界線SMOTEとジェネレーティブ・アドリラル・ネットワークのパワーを組み合わせたハイブリッド・オーバーサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-05-16T20:02:39Z) - Don't Play Favorites: Minority Guidance for Diffusion Models [59.75996752040651]
本稿では,拡散モデルの生成過程をマイノリティ標本に集中させる新しい枠組みを提案する。
我々は、所望の確率レベルを持つ領域に向けて生成過程をガイドできるサンプリング技術であるマイノリティガイダンスを開発する。
論文 参考訳(メタデータ) (2023-01-29T03:08:47Z) - Selectively increasing the diversity of GAN-generated samples [8.980453507536017]
本稿では,GAN生成サンプルの多様性を選択的に向上する手法を提案する。
本研究では,CERN における ALICE 実験のZero Degree Calorimeter から得られたデータをシミュレーションする実生活シナリオとともに,本手法の優位性を示す。
論文 参考訳(メタデータ) (2022-07-04T16:27:06Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - ReSmooth: Detecting and Utilizing OOD Samples when Training with Data
Augmentation [57.38418881020046]
最近のDA技術は、常に強化トレーニングサンプルの多様性の必要性を満たす。
多様性の高い増分戦略は、通常、アウト・オブ・ディストリビューション(OOD)の増分サンプルを導入する。
ReSmoothは、まず、拡張サンプル中のOODサンプルを検知し、それらを活用するフレームワークである。
論文 参考訳(メタデータ) (2022-05-25T09:29:27Z) - An Empirical Study of the Effects of Sample-Mixing Methods for Efficient
Training of Generative Adversarial Networks [0.0]
生成敵対ネットワーク(GAN)のトレーニングは、発電機が高品質のサンプルを提供する前に巨大なイテレーションを必要とすることがよく知られています。
本研究では, この問題を緩和するために, 試料混合法であるMixup, CutMix, SRMixの効果を検討した。
論文 参考訳(メタデータ) (2021-04-08T06:40:23Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。