論文の概要: Co-Mixup: Saliency Guided Joint Mixup with Supermodular Diversity
- arxiv url: http://arxiv.org/abs/2102.03065v1
- Date: Fri, 5 Feb 2021 09:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-08 14:53:04.579361
- Title: Co-Mixup: Saliency Guided Joint Mixup with Supermodular Diversity
- Title(参考訳): Co-Mixup:スーパーモジュラダイバーシティとSaliency Guided Joint Mixup
- Authors: Jang-Hyun Kim, Wonho Choo, Hosan Jeong, Hyun Oh Song
- Abstract要約: バッチ混成データに対する新たな視点を提案し, バッチ混成データの最適構築を定式化する。
また,各ミニバッチ毎に効率的な混合を行うために,効率的なモジュール近似に基づく反復的部分モジュラー計算アルゴリズムを提案する。
実験により, 提案手法は, 技術一般化, キャリブレーション, および弱教師付き局所化結果の状態を達成できることを示した。
- 参考スコア(独自算出の注目度): 15.780905917870427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks show great performance on fitting to the training
distribution, improving the networks' generalization performance to the test
distribution and robustness to the sensitivity to input perturbations still
remain as a challenge. Although a number of mixup based augmentation strategies
have been proposed to partially address them, it remains unclear as to how to
best utilize the supervisory signal within each input data for mixup from the
optimization perspective. We propose a new perspective on batch mixup and
formulate the optimal construction of a batch of mixup data maximizing the data
saliency measure of each individual mixup data and encouraging the supermodular
diversity among the constructed mixup data. This leads to a novel discrete
optimization problem minimizing the difference between submodular functions. We
also propose an efficient modular approximation based iterative submodular
minimization algorithm for efficient mixup computation per each minibatch
suitable for minibatch based neural network training. Our experiments show the
proposed method achieves the state of the art generalization, calibration, and
weakly supervised localization results compared to other mixup methods. The
source code is available at https://github.com/snu-mllab/Co-Mixup.
- Abstract(参考訳): ディープニューラルネットワークはトレーニング分布に適合する優れた性能を示すが、テスト分布に対するネットワークの一般化性能の向上と入力摂動に対する感度の堅牢性は依然として課題である。
それらに部分的に対処するために、いくつかのミックスアップに基づく拡張戦略が提案されているが、最適化の観点からは、各入力データ内の監視信号の最適利用方法が不明である。
本稿では,各混合データのデータ塩分率を最大化し,構築した混合データの超モジュラー多様性を助長する混合データのバッチ構築について,バッチ混成に関する新たな視点を提案する。
このことは、部分モジュラ函数の差を最小限に抑える新しい離散最適化問題をもたらす。
また,ニューラルネットワークのトレーニングに適した各ミニバッチ毎の効率的な混合計算のための,効率的なモジュラー近似に基づく反復的部分モジュラー最小化アルゴリズムを提案する。
提案手法は,他のミックスアップ法と比較して,アート一般化,キャリブレーション,弱い教師付き局所化結果が得られることを示す。
ソースコードはhttps://github.com/snu-mllab/co-mixupで入手できる。
関連論文リスト
- Fast Semi-supervised Unmixing using Non-convex Optimization [85.95119207126292]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - Expeditious Saliency-guided Mix-up through Random Gradient Thresholding [89.59134648542042]
混合学習アプローチはディープニューラルネットワークの一般化能力向上に有効であることが証明されている。
本稿では,両経路の分岐点に位置する新しい手法を提案する。
我々はR-Mixという手法を「Random Mix-up」という概念にちなむ。
より良い意思決定プロトコルが存在するかどうかという問題に対処するために、我々は、ミックスアップポリシーを決定する強化学習エージェントを訓練する。
論文 参考訳(メタデータ) (2022-12-09T14:29:57Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Contrastive-mixup learning for improved speaker verification [17.93491404662201]
本稿では,話者検証のためのミックスアップによるプロトタイプ損失の新しい定式化を提案する。
Mixupは、ランダムなデータポイントとラベルペアの重み付けを組み合わせた、シンプルだが効率的なデータ拡張技術である。
論文 参考訳(メタデータ) (2022-02-22T05:09:22Z) - Noisy Feature Mixup [42.056684988818766]
NFM(Noisy Feature Mixup)は,データ拡張のための安価で効果的な手法である。
NFMは特別な場合として混合と多様体の混合を含むが、決定境界の平滑化など、さらなる利点がある。
NFMでトレーニングした残差ネットワークと視覚変換器は、クリーンデータにおける予測精度と各種データに対するロバスト性との間に良好なトレードオフがあることが示される。
論文 参考訳(メタデータ) (2021-10-05T17:13:51Z) - Improving Generalization in Reinforcement Learning with Mixture
Regularization [113.12412071717078]
そこで本研究では,異なるトレーニング環境からの観察を混合してエージェントを訓練する,mixregという簡単なアプローチを提案する。
Mixregはデータの多様性をより効果的に向上し、よりスムーズなポリシーを学ぶのに役立つ。
その結果、mixregは、未確認テスト環境において確立されたベースラインを大きなマージンで上回る結果となった。
論文 参考訳(メタデータ) (2020-10-21T08:12:03Z) - Puzzle Mix: Exploiting Saliency and Local Statistics for Optimal Mixup [19.680580983094323]
Puzzle Mixは、サリエンシ情報と自然事例の基盤となる統計を明示的に活用するための混合手法である。
実験の結果,Puzzle Mixはアートの一般化と対向ロバスト性を実現していることがわかった。
論文 参考訳(メタデータ) (2020-09-15T10:10:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。