論文の概要: Selective Mixup Helps with Distribution Shifts, But Not (Only) because
of Mixup
- arxiv url: http://arxiv.org/abs/2305.16817v2
- Date: Fri, 2 Jun 2023 18:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:39:09.123343
- Title: Selective Mixup Helps with Distribution Shifts, But Not (Only) because
of Mixup
- Title(参考訳): Selective Mixupは分散シフトを支援するが、Mixupのため(今のところ)ではない
- Authors: Damien Teney, Jindong Wang, Ehsan Abbasnejad
- Abstract要約: 本研究では,ペアの非ランダム選択がトレーニング分布に影響を及ぼし,混合とは無関係な手段による一般化が向上することを示す。
選択混合法と再サンプリング法という2つの手法の間に新しい等価性を見出した。
- 参考スコア(独自算出の注目度): 26.105340203096596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixup is a highly successful technique to improve generalization of neural
networks by augmenting the training data with combinations of random pairs.
Selective mixup is a family of methods that apply mixup to specific pairs, e.g.
only combining examples across classes or domains. These methods have claimed
remarkable improvements on benchmarks with distribution shifts, but their
mechanisms and limitations remain poorly understood.
We examine an overlooked aspect of selective mixup that explains its success
in a completely new light. We find that the non-random selection of pairs
affects the training distribution and improve generalization by means
completely unrelated to the mixing. For example in binary classification, mixup
across classes implicitly resamples the data for a uniform class distribution -
a classical solution to label shift. We show empirically that this implicit
resampling explains much of the improvements in prior work. Theoretically,
these results rely on a regression toward the mean, an accidental property that
we identify in several datasets.
We have found a new equivalence between two successful methods: selective
mixup and resampling. We identify limits of the former, confirm the
effectiveness of the latter, and find better combinations of their respective
benefits.
- Abstract(参考訳): mixupは、トレーニングデータをランダムペアの組み合わせで拡張することにより、ニューラルネットワークの一般化を改善する、非常に成功したテクニックである。
選択的ミックスアップ(selective mixup)は、特定のペアにmixupを適用する一連のメソッドである。
これらの手法は分布シフトを伴うベンチマークにおいて顕著な改善が主張されているが、そのメカニズムや制限は理解されていない。
完全に新しい光の下でその成功を説明する選択的混合の見過ごされた側面について検討する。
ペアの非ランダム選択がトレーニング分布に影響を与え,混合とは無関係な手段による一般化が向上することがわかった。
例えばバイナリ分類では、クラス間のミックスアップが、一様クラスの分散のためにデータを暗黙的に再サンプリングする。
この暗黙的な再サンプリングは、以前の作業における多くの改善を説明してくれます。
理論的には、これらの結果は、いくつかのデータセットで識別する偶然の性質である平均への回帰に依存する。
選択混合法と再サンプリング法という2つの手法の間に新しい等価性を見出した。
前者の限界を特定し、後者の有効性を確認し、それぞれの利点のより良い組み合わせを見つけます。
関連論文リスト
- SUMix: Mixup with Semantic and Uncertain Information [41.99721365685618]
混合データ拡張アプローチは、ディープラーニングの様々なタスクに応用されている。
そこで我々は,SUMix という新しい手法を提案し,混合率と混合試料の不確かさを学習する。
論文 参考訳(メタデータ) (2024-07-10T16:25:26Z) - Tailoring Mixup to Data for Calibration [12.050401897136501]
Mixupはキャリブレーションと予測の不確実性を改善する技術である。
この研究では、データ間の距離が混合されるにつれて、多様体の侵入の可能性が増加することを論じる。
本研究では, 混合する試料間の類似度に応じて, 係数の基底分布を動的に変化させることを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:48:28Z) - Semantic Equivariant Mixup [54.734054770032934]
Mixupは、トレーニング分布を拡張し、ニューラルネットワークを正規化する、確立されたデータ拡張テクニックである。
以前のミックスアップの変種はラベル関連の情報に過度に焦点をあてる傾向がある。
入力中のよりリッチな意味情報を保存するための意味的同変混合(sem)を提案する。
論文 参考訳(メタデータ) (2023-08-12T03:05:53Z) - Infinite Class Mixup [26.48101652432502]
Mixupは、トレーニングペアのインプットとラベルを補間することで、追加のサンプルが拡張されるディープネットワークのトレーニング戦略である。
本論文は,各混合ペアのラベルを混合する代わりに,分類器を直接混合することにより,この問題に対処することを目的とする。
Infinite Class Mixupは標準のMixupやRegMixupやRemixなど、バランスの取れた、長い尾のついた、データに制約のあるベンチマークにおいて、パフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-05-17T15:27:35Z) - The Benefits of Mixup for Feature Learning [117.93273337740442]
最初に、機能やラベルに異なる線形パラメータを使用するMixupは、標準Mixupと同様のパフォーマンスが得られることを示す。
我々は、特徴雑音データモデルを検討し、Mixupトレーニングが共通の特徴と組み合わせることで、稀な特徴を効果的に学習できることを示します。
対照的に、標準的なトレーニングは共通の特徴しか学べないが、まれな特徴を学べないため、パフォーマンスが悪くなる。
論文 参考訳(メタデータ) (2023-03-15T08:11:47Z) - Expeditious Saliency-guided Mix-up through Random Gradient Thresholding [89.59134648542042]
混合学習アプローチはディープニューラルネットワークの一般化能力向上に有効であることが証明されている。
本稿では,両経路の分岐点に位置する新しい手法を提案する。
我々はR-Mixという手法を「Random Mix-up」という概念にちなむ。
より良い意思決定プロトコルが存在するかどうかという問題に対処するために、我々は、ミックスアップポリシーを決定する強化学習エージェントを訓練する。
論文 参考訳(メタデータ) (2022-12-09T14:29:57Z) - SelecMix: Debiased Learning by Contradicting-pair Sampling [39.613595678105845]
ERMでトレーニングされたニューラルネットワークは、トレーニングデータがバイアスを受けたときに意図しない決定ルールを学ぶ。
トレーニング例の凸結合を生成するために,Mixupをベースとした代替案を提案する。
SelecMixと呼ばれるこの手法は、(i)同一のラベルを示すが、(ii)異なるラベルを示すか、または(ii)類似のバイアスを持つ特徴を示すものとして定義される、矛盾する例のペアにミックスアップを適用する。
論文 参考訳(メタデータ) (2022-11-04T07:15:36Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。