論文の概要: GenLabel: Mixup Relabeling using Generative Models
- arxiv url: http://arxiv.org/abs/2201.02354v1
- Date: Fri, 7 Jan 2022 07:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-10 14:44:40.643991
- Title: GenLabel: Mixup Relabeling using Generative Models
- Title(参考訳): GenLabel: 生成モデルを使用したミックスアップリラベル
- Authors: Jy-yong Sohn, Liang Shang, Hongxu Chen, Jaekyun Moon, Dimitris
Papailiopoulos, Kangwook Lee
- Abstract要約: GenLabelは、ミックスアップ用に設計された単純で効果的なレバーベリングアルゴリズムである。
特に、GenLabelは、クラス条件のデータ分散を学習することで、ミックスアップアルゴリズムがミックスアップサンプルを正しくラベル付けするのに役立つ。
GenLabelと一緒に使うと、上記の現象を効果的に解決できることを示す。
- 参考スコア(独自算出の注目度): 33.27206760925809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixup is a data augmentation method that generates new data points by mixing
a pair of input data. While mixup generally improves the prediction
performance, it sometimes degrades the performance. In this paper, we first
identify the main causes of this phenomenon by theoretically and empirically
analyzing the mixup algorithm. To resolve this, we propose GenLabel, a simple
yet effective relabeling algorithm designed for mixup. In particular, GenLabel
helps the mixup algorithm correctly label mixup samples by learning the
class-conditional data distribution using generative models. Via extensive
theoretical and empirical analysis, we show that mixup, when used together with
GenLabel, can effectively resolve the aforementioned phenomenon, improving the
generalization performance and the adversarial robustness.
- Abstract(参考訳): mixupは、入力データ対を混合して新しいデータポイントを生成するデータ拡張手法である。
mixupは一般的に予測性能が向上するが、時には性能が低下する。
本稿では, 混合アルゴリズムを理論的に経験的に解析することにより, この現象の主な原因を明らかにする。
そこで我々は,mixup用に設計された単純かつ効果的なrelabelingアルゴリズムであるgenlabelを提案する。
特に、GenLabelは、生成モデルを用いてクラス条件のデータ分散を学習することで、ミックスアップアルゴリズムがミックスアップサンプルを正しくラベル付けするのに役立つ。
広範な理論的・経験的分析により,genlabelと併用した場合,mixupは上記の現象を効果的に解決し,一般化性能と対向ロバスト性が向上することを示した。
関連論文リスト
- GeoMix: Towards Geometry-Aware Data Augmentation [76.09914619612812]
Mixupは画像分類におけるラベル付き限られたデータによる課題の緩和にかなりの成功を収めている。
In-place graph editing を利用した簡易かつ解釈可能な混合手法 Geometric Mixup (GeoMix) を提案する。
論文 参考訳(メタデータ) (2024-07-15T12:58:04Z) - IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors [15.281223268780694]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて優れたパフォーマンスを示している。
グラフの一般的な課題は、ノードの正確な(高品質な)ラベルと限られた隣り合うラベルである。
既存のグラフ拡張手法は通常、これらの課題の1つにのみ対処する。
両課題を同時に解決するために,IntraMixと呼ばれるエレガントな手法を提案する。
論文 参考訳(メタデータ) (2024-05-02T02:38:32Z) - Adversarial AutoMixup [50.1874436169571]
本稿では,AdAutomixupを提案する。
画像分類のための堅牢な分類器を訓練するために、挑戦的なサンプルを生成する。
本手法は, 様々な分類シナリオにおいて, 技術状況に優れる。
論文 参考訳(メタデータ) (2023-12-19T08:55:00Z) - MixupE: Understanding and Improving Mixup from Directional Derivative
Perspective [86.06981860668424]
理論上は、バニラ・ミックスアップよりも優れた一般化性能を実現するために、Mixupの改良版を提案する。
提案手法は,様々なアーキテクチャを用いて,複数のデータセットにまたがるMixupを改善した。
論文 参考訳(メタデータ) (2022-12-27T07:03:52Z) - C-Mixup: Improving Generalization in Regression [71.10418219781575]
混合アルゴリズムは、一対の例とその対応するラベルを線形補間することによって一般化を改善する。
ラベルの類似度に基づいてサンプリング確率を調整するC-Mixupを提案する。
C-Mixupは6.56%、4.76%、5.82%の改善、タスクの一般化、アウト・オブ・ディストリビューションの堅牢性を実現している。
論文 参考訳(メタデータ) (2022-10-11T20:39:38Z) - DoubleMix: Simple Interpolation-Based Data Augmentation for Text
Classification [56.817386699291305]
本稿では,DoubleMixと呼ばれる単純なデータ拡張手法を提案する。
DoubleMixはまず、トレーニングデータごとにいくつかの摂動サンプルを生成する。
次に、摂動データと元のデータを使って、隠れたニューラルネットワークの空間で2段階のステップを実行する。
論文 参考訳(メタデータ) (2022-09-12T15:01:04Z) - Global Mixup: Eliminating Ambiguity with Clustering [18.876583942942144]
我々はtextbfGlobal Mixup というグローバルクラスタリング関係に基づく新しい拡張手法を提案する。
実験によると、Global Mixupはこれまでの最先端のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2022-06-06T16:42:22Z) - Label-Occurrence-Balanced Mixup for Long-tailed Recognition [6.482544017574614]
本稿では,各クラスにおけるラベル発生率を統計的にバランスよく保ちながら,データ量を増やすためのラベル・オクレンス・バランサード・ミックスアップを提案する。
長い視力と音声認識のベンチマークで本手法を検証した。
論文 参考訳(メタデータ) (2021-10-11T02:22:02Z) - GuidedMix-Net: Learning to Improve Pseudo Masks Using Labeled Images as
Reference [153.354332374204]
半教師付きセマンティックセマンティックセグメンテーションのための新しい手法である GuidedMix-Net を提案する。
まず、ラベル付きデータとラベルなしデータの間に特徴アライメントの目的を導入し、類似した画像対をキャプチャする。
MITransは、ラベルなしデータのさらなるプログレッシブな精細化のための強力な知識モジュールであることが示されている。
ラベル付きデータに対する教師付き学習とともに、ラベル付きデータの予測が生成した擬似マスクとともに学習される。
論文 参考訳(メタデータ) (2021-06-29T02:48:45Z) - How Does Mixup Help With Robustness and Generalization? [41.58255103170875]
トレーニングにおけるMixupの使用は、堅牢性と一般化のモデル化にどのように役立つかを示す。
強靭性については, 混合損失の最小化は, 対向損失の上限をほぼ最小化することを示す。
一般化のために、Mixupの拡張は、オーバーフィッティングを減らすデータ適応正規化の特定のタイプに対応することを証明した。
論文 参考訳(メタデータ) (2020-10-09T21:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。