論文の概要: Text Augmentation in a Multi-Task View
- arxiv url: http://arxiv.org/abs/2101.05469v1
- Date: Thu, 14 Jan 2021 05:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 09:05:20.451317
- Title: Text Augmentation in a Multi-Task View
- Title(参考訳): マルチタスクビューにおけるテキスト拡張
- Authors: Jason Wei, Chengyu Huang, Shiqi Xu, Soroush Vosoughi
- Abstract要約: 我々は、データ拡張のマルチタスクビュー(MTV)という別の視点を提案する。
MTVデータ拡張では、オリジナルサンプルと強化サンプルの両方がトレーニング中に実質的に重み付けされる。
我々は、MTVは、より高いとより堅牢なパフォーマンスの改善につながります。
- 参考スコア(独自算出の注目度): 3.6294581578004323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional data augmentation aims to increase the coverage of the input
distribution by generating augmented examples that strongly resemble original
samples in an online fashion where augmented examples dominate training. In
this paper, we propose an alternative perspective -- a multi-task view (MTV) of
data augmentation -- in which the primary task trains on original examples and
the auxiliary task trains on augmented examples. In MTV data augmentation, both
original and augmented samples are weighted substantively during training,
relaxing the constraint that augmented examples must resemble original data and
thereby allowing us to apply stronger levels of augmentation. In empirical
experiments using four common data augmentation techniques on three benchmark
text classification datasets, we find that the MTV leads to higher and more
robust performance improvements than traditional augmentation.
- Abstract(参考訳): 従来のデータ拡張は、トレーニングを主とするオンライン方式で、原サンプルに強く類似した拡張例を生成することで、入力分布のカバレッジを向上させることを目的としている。
本稿では,データ拡張のマルチタスクビュー(MTV)という別の視点を提案する。
MTVデータ拡張では、トレーニング中に原サンプルと増分サンプルの両方を実質的に重み付けし、増分サンプルが原データに似なければならないという制約を緩和し、より強力な増分レベルを適用できるようにする。
3つのベンチマークテキスト分類データセットにおける4つの共通データ拡張技術を用いた実験では、mtvが従来の拡張よりも高い、より堅牢なパフォーマンス改善をもたらすことが判明した。
関連論文リスト
- Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Instance-Conditioned GAN Data Augmentation for Representation Learning [29.36473147430433]
DA_IC-GANは、学習可能なデータ拡張モジュールで、ほとんどの最先端のトレーニングレシピと組み合わせて、棚外で使用することができる。
DA_IC-GAN は最大容量モデルで 1%p から 2%p の精度を向上できることを示す。
また,DA_IC-GANを自己指導型トレーニングレシピと組み合わせることで,いくつかの設定で1%pの精度向上が達成できることを示す。
論文 参考訳(メタデータ) (2023-03-16T22:45:43Z) - AugGPT: Leveraging ChatGPT for Text Data Augmentation [59.76140039943385]
本稿では,ChatGPT(AugGPT)に基づくテキストデータ拡張手法を提案する。
AugGPTはトレーニングサンプルの各文を、概念的には似ているが意味的に異なる複数のサンプルに言い換える。
数ショットの学習テキスト分類タスクの実験結果は、提案したAugGPTアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2023-02-25T06:58:16Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Rethinking the Augmentation Module in Contrastive Learning: Learning
Hierarchical Augmentation Invariance with Expanded Views [22.47152165975219]
データ拡張モジュールは、データサンプルを2つのビューに変換するために、対照的な学習に使用される。
本稿では, 一般的なコントラスト学習フレームワークにおいて, コントラストとコントラストを考慮し, これら2つの問題を緩和する一般的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-01T04:30:46Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - Untapped Potential of Data Augmentation: A Domain Generalization
Viewpoint [14.360826930970765]
本研究では,拡張に基づく手法の領域一般化の観点から考察する。
最先端の強化手法による探索は、学習された表現が訓練中に使用する歪みに対してさえ頑健でないことを示す。
論文 参考訳(メタデータ) (2020-07-09T09:40:54Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。