論文の概要: Epsilon Consistent Mixup: An Adaptive Consistency-Interpolation Tradeoff
- arxiv url: http://arxiv.org/abs/2104.09452v1
- Date: Mon, 19 Apr 2021 17:10:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:19:48.901943
- Title: Epsilon Consistent Mixup: An Adaptive Consistency-Interpolation Tradeoff
- Title(参考訳): Epsilon Consistent Mixup: 適応的一貫性-補間トレードオフ
- Authors: Vincent Pisztora, Yanglan Ou, Xiaolei Huang, Francesca Chiaromonte,
Jia Li
- Abstract要約: epsilon$muは、Mixupの線形とMixup方向の整合性正規化を組み合わせたデータベースの構造正規化技術です。
SVHNおよびCIFAR10ベンチマークデータセットの半教師付き分類精度を改善することが示されている。
特に$epsilon$muは、Mixupよりも正確な合成ラベルと信頼性の高い予測を生成する。
- 参考スコア(独自算出の注目度): 19.03167022268852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose $\epsilon$-Consistent Mixup ($\epsilon$mu).
$\epsilon$mu is a data-based structural regularization technique that combines
Mixup's linear interpolation with consistency regularization in the Mixup
direction, by compelling a simple adaptive tradeoff between the two. This
learnable combination of consistency and interpolation induces a more flexible
structure on the evolution of the response across the feature space and is
shown to improve semi-supervised classification accuracy on the SVHN and
CIFAR10 benchmark datasets, yielding the largest gains in the most challenging
low label-availability scenarios. Empirical studies comparing $\epsilon$mu and
Mixup are presented and provide insight into the mechanisms behind
$\epsilon$mu's effectiveness. In particular, $\epsilon$mu is found to produce
more accurate synthetic labels and more confident predictions than Mixup.
- Abstract(参考訳): 本稿では,$\epsilon$-Consistent Mixup(\epsilon$mu)を提案する。
$\epsilon$muは、mixupの線形補間とmixupの方向における一貫性の正規化を組み合わせたデータベースの構造正規化手法である。
この一貫性と補間の学習可能な組み合わせは、機能空間全体の応答の進化をより柔軟に構成し、svhnおよびcifar10ベンチマークデータセットにおける半教師付き分類精度を改善し、最も困難なラベルアベイラビリティシナリオにおいて最大の利益をもたらす。
$\epsilon$mu と Mixup を比較した実証的研究を行い、$\epsilon$mu の有効性のメカニズムについて考察した。
特に$\epsilon$muは、Mixupよりも正確な合成ラベルと信頼性の高い予測を生成する。
関連論文リスト
- Fast Semisupervised Unmixing Using Nonconvex Optimization [80.11512905623417]
半/ライブラリベースのアンミックスのための新しい凸凸モデルを提案する。
スパース・アンミキシングの代替手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-01-23T10:07:41Z) - Tailoring Mixup to Data for Calibration [12.050401897136501]
Mixupはキャリブレーションと予測の不確実性を改善する技術である。
この研究では、データ間の距離が混合されるにつれて、多様体の侵入の可能性が増加することを論じる。
本研究では, 混合する試料間の類似度に応じて, 係数の基底分布を動的に変化させることを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:48:28Z) - SIGMA: Scale-Invariant Global Sparse Shape Matching [50.385414715675076]
非剛体形状の正確なスパース対応を生成するための新しい混合整数プログラミング(MIP)法を提案する。
いくつかの挑戦的な3Dデータセットに対して,スパースな非剛性マッチングの最先端結果を示す。
論文 参考訳(メタデータ) (2023-08-16T14:25:30Z) - Semantic Equivariant Mixup [54.734054770032934]
Mixupは、トレーニング分布を拡張し、ニューラルネットワークを正規化する、確立されたデータ拡張テクニックである。
以前のミックスアップの変種はラベル関連の情報に過度に焦点をあてる傾向がある。
入力中のよりリッチな意味情報を保存するための意味的同変混合(sem)を提案する。
論文 参考訳(メタデータ) (2023-08-12T03:05:53Z) - Provable Benefit of Mixup for Finding Optimal Decision Boundaries [18.668531108219415]
我々は、Mixupのようなペアワイドデータ拡張技術が最適な決定境界を見つける際のサンプルの複雑さにどのように影響するかを検討する。
サンプルの複雑さを著しく低減することで、Mixupがこの問題を軽減することを示す。
論文 参考訳(メタデータ) (2023-06-01T00:59:19Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - Multi-Sample $\zeta$-mixup: Richer, More Realistic Synthetic Samples
from a $p$-Series Interpolant [16.65329510916639]
証明可能かつ明白に望ましい性質を持つ混合の一般化である$zeta$-mixupを提案する。
我々は,$zeta$-mixupの実装がミックスアップよりも高速であることを示し,制御された合成および24の実世界の自然・医療画像分類データセットにおいて,$zeta$-mixupがミックスアップおよび従来のデータ拡張技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T09:41:09Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - k-Mixup Regularization for Deep Learning via Optimal Transport [32.951696405505686]
Mixupは、ディープニューラルネットワークをトレーニングするための一般的な正規化テクニックである。
emph$k$-mixupは、他の$k$-batchesの方向に、トレーニングポイントの$k$-batchesを摂動させる。
我々は、$k$-mixupによるトレーニングにより、複数のネットワークアーキテクチャにおける一般化と堅牢性がさらに向上することを示す。
論文 参考訳(メタデータ) (2021-06-05T17:08:08Z) - On Mixup Regularization [16.748910388577308]
Mixupは、トレーニングポイントとラベルの凸組み合わせとして新しい例を作成するデータ拡張テクニックである。
そこで本研究では、Mixupの新しい解釈のランダムな摂動が、複数の既知の正規化スキームを誘導することを示す。
論文 参考訳(メタデータ) (2020-06-10T20:11:46Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。