論文の概要: Global Mixup: Eliminating Ambiguity with Clustering
- arxiv url: http://arxiv.org/abs/2206.02734v1
- Date: Mon, 6 Jun 2022 16:42:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 13:56:42.486526
- Title: Global Mixup: Eliminating Ambiguity with Clustering
- Title(参考訳): Global Mixup: クラスタリングによる曖昧さの排除
- Authors: Xiangjin Xie and Yangning Li and Wang Chen and Kai Ouyang and Li Jiang
and Haitao Zheng
- Abstract要約: 我々はtextbfGlobal Mixup というグローバルクラスタリング関係に基づく新しい拡張手法を提案する。
実験によると、Global Mixupはこれまでの最先端のベースラインを大きく上回っている。
- 参考スコア(独自算出の注目度): 18.876583942942144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation with \textbf{Mixup} has been proven an effective method to
regularize the current deep neural networks. Mixup generates virtual samples
and corresponding labels at once through linear interpolation. However, this
one-stage generation paradigm and the use of linear interpolation have the
following two defects: (1) The label of the generated sample is directly
combined from the labels of the original sample pairs without reasonable
judgment, which makes the labels likely to be ambiguous. (2) linear combination
significantly limits the sampling space for generating samples. To tackle these
problems, we propose a novel and effective augmentation method based on global
clustering relationships named \textbf{Global Mixup}. Specifically, we
transform the previous one-stage augmentation process into two-stage,
decoupling the process of generating virtual samples from the labeling. And for
the labels of the generated samples, relabeling is performed based on
clustering by calculating the global relationships of the generated samples. In
addition, we are no longer limited to linear relationships but generate more
reliable virtual samples in a larger sampling space. Extensive experiments for
\textbf{CNN}, \textbf{LSTM}, and \textbf{BERT} on five tasks show that Global
Mixup significantly outperforms previous state-of-the-art baselines. Further
experiments also demonstrate the advantage of Global Mixup in low-resource
scenarios.
- Abstract(参考訳): 現在のディープニューラルネットワークを正規化するための有効な方法として,‘textbf{Mixup} によるデータ拡張が証明されている。
Mixupは線形補間により仮想サンプルと対応するラベルを同時に生成する。
しかし、この一段階生成パラダイムと線形補間の使用には、(1) 生成したサンプルのラベルは、合理的な判断をすることなく、元のサンプルペアのラベルと直接結合されるため、ラベルは曖昧である可能性が高い。
2) 線形結合はサンプル生成のためのサンプリング空間を大幅に制限する。
そこで本研究では,グローバルクラスタリングに基づく新しい拡張手法である \textbf{global mixup}を提案する。
具体的には,前回の1段階拡張処理を2段階に変換し,ラベリングから仮想サンプルを生成するプロセスを分離する。
また、生成されたサンプルのラベルについては、生成されたサンプルのグローバルな関係を計算してクラスタリングに基づいてラベル付けを行う。
さらに、線形関係に限らず、より大きなサンプリング空間においてより信頼性の高い仮想サンプルを生成する。
5つのタスクにおける \textbf{CNN} 、 \textbf{LSTM} 、 \textbf{BERT} の広範な実験は、Global Mixup が従来の最先端のベースラインを大幅に上回っていることを示している。
さらなる実験では、低リソースシナリオにおけるGlobal Mixupの利点も示している。
関連論文リスト
- Mixup Augmentation with Multiple Interpolations [26.46413903248954]
サンプルペアから複数の勾配を生成するマルチミックス(multi-mix)という単純な拡張を提案する。
生成されたサンプルの順序を順序付けすることで、マルチミックスは、標準的なミックスアップよりもトレーニングプロセスのガイドに役立てることができる。
論文 参考訳(メタデータ) (2024-06-03T15:16:09Z) - GCC: Generative Calibration Clustering [55.44944397168619]
本稿では,特徴学習と拡張をクラスタリングに組み込む新しいGCC法を提案する。
まず,実検体と実検体間の固有関係を識別する識別的特徴アライメント機構を開発する。
第二に、より信頼性の高いクラスタ割り当てを生成するための自己教師付きメトリック学習を設計する。
論文 参考訳(メタデータ) (2024-04-14T01:51:11Z) - On the Equivalence of Graph Convolution and Mixup [71.8932383179048]
本稿では,グラフ畳み込みと混合手法の関係について検討する。
2つの穏やかな条件の下では、グラフの畳み込みはMixupの特別な形式と見なすことができる。
グラフ畳み込みネットワーク(GCN)と単純化グラフ畳み込み(SGC)をミックスアップの形で表現できることを証明し、数学的にこの等価性を確立する。
論文 参考訳(メタデータ) (2023-09-29T23:09:54Z) - Weighted Sparse Partial Least Squares for Joint Sample and Feature
Selection [7.219077740523681]
本稿では, 共同サンプルと特徴選択のために, $ell_infty/ell_0$-norm制約付きスパースPSS(ell_infty/ell_$-wsPLS)法を提案する。
我々は,各マルチビューwsPLSモデルに対して効率的な反復アルゴリズムを開発し,その収束性を示す。
論文 参考訳(メタデータ) (2023-08-13T10:09:25Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Implicit Sample Extension for Unsupervised Person Re-Identification [97.46045935897608]
クラスタリングは、時に異なる真のアイデンティティを混ぜ合わせたり、同じアイデンティティを2つ以上のサブクラスタに分割する。
本稿では,クラスタ境界周辺のサポートサンプルを生成するために,Implicit Sample Extension (OurWholeMethod)法を提案する。
提案手法の有効性を実証し,教師なしのRe-IDに対して最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-04-14T11:41:48Z) - Multi-Sample $\zeta$-mixup: Richer, More Realistic Synthetic Samples
from a $p$-Series Interpolant [16.65329510916639]
証明可能かつ明白に望ましい性質を持つ混合の一般化である$zeta$-mixupを提案する。
我々は,$zeta$-mixupの実装がミックスアップよりも高速であることを示し,制御された合成および24の実世界の自然・医療画像分類データセットにおいて,$zeta$-mixupがミックスアップおよび従来のデータ拡張技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-04-07T09:41:09Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Saliency Grafting: Innocuous Attribution-Guided Mixup with Calibrated
Label Mixing [104.630875328668]
ミックスアップスキームは、強化されたトレーニングサンプルを作成するために、サンプルのペアを混ぜることを提案する。
両世界のベストを捉えた、斬新だがシンプルなミックスアップ版を提示する。
論文 参考訳(メタデータ) (2021-12-16T11:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。