論文の概要: Text Augmentation in a Multi-Task View
- arxiv url: http://arxiv.org/abs/2101.05469v1
- Date: Thu, 14 Jan 2021 05:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 09:05:20.451317
- Title: Text Augmentation in a Multi-Task View
- Title(参考訳): マルチタスクビューにおけるテキスト拡張
- Authors: Jason Wei, Chengyu Huang, Shiqi Xu, Soroush Vosoughi
- Abstract要約: 我々は、データ拡張のマルチタスクビュー(MTV)という別の視点を提案する。
MTVデータ拡張では、オリジナルサンプルと強化サンプルの両方がトレーニング中に実質的に重み付けされる。
我々は、MTVは、より高いとより堅牢なパフォーマンスの改善につながります。
- 参考スコア(独自算出の注目度): 3.6294581578004323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional data augmentation aims to increase the coverage of the input
distribution by generating augmented examples that strongly resemble original
samples in an online fashion where augmented examples dominate training. In
this paper, we propose an alternative perspective -- a multi-task view (MTV) of
data augmentation -- in which the primary task trains on original examples and
the auxiliary task trains on augmented examples. In MTV data augmentation, both
original and augmented samples are weighted substantively during training,
relaxing the constraint that augmented examples must resemble original data and
thereby allowing us to apply stronger levels of augmentation. In empirical
experiments using four common data augmentation techniques on three benchmark
text classification datasets, we find that the MTV leads to higher and more
robust performance improvements than traditional augmentation.
- Abstract(参考訳): 従来のデータ拡張は、トレーニングを主とするオンライン方式で、原サンプルに強く類似した拡張例を生成することで、入力分布のカバレッジを向上させることを目的としている。
本稿では,データ拡張のマルチタスクビュー(MTV)という別の視点を提案する。
MTVデータ拡張では、トレーニング中に原サンプルと増分サンプルの両方を実質的に重み付けし、増分サンプルが原データに似なければならないという制約を緩和し、より強力な増分レベルを適用できるようにする。
3つのベンチマークテキスト分類データセットにおける4つの共通データ拡張技術を用いた実験では、mtvが従来の拡張よりも高い、より堅牢なパフォーマンス改善をもたらすことが判明した。
関連論文リスト
- Prioritized Generative Replay [121.83947140497655]
本稿では,オンライン体験を再現する生成モデルを用いて,エージェントのメモリの優先的でパラメトリックなバージョンを提案する。
このパラダイムは、生成モデルの一般化能力の恩恵を受ける新しい世代と共に、過去の経験の密度化を可能にする。
このレシピは条件付き拡散モデルと単純な関連関数を用いてインスタンス化できることを示す。
論文 参考訳(メタデータ) (2024-10-23T17:59:52Z) - Feature Augmentation for Self-supervised Contrastive Learning: A Closer Look [28.350278251132078]
本稿では,機能拡張(Feature Augmentation)として知られる機能空間でデータ拡張を行う統一フレームワークを提案する。
この戦略はドメインに依存しないため、元のものと同様の機能が追加され、データの多様性が向上する。
論文 参考訳(メタデータ) (2024-10-16T09:25:11Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Implicit Counterfactual Data Augmentation for Robust Learning [24.795542869249154]
本研究では, 突発的相関を除去し, 安定した予測を行うために, インプリシト・カウンセショナル・データ拡張法を提案する。
画像とテキストのデータセットをカバーする様々なバイアス付き学習シナリオで実験が行われてきた。
論文 参考訳(メタデータ) (2023-04-26T10:36:40Z) - AugGPT: Leveraging ChatGPT for Text Data Augmentation [59.76140039943385]
本稿では,ChatGPT(AugGPT)に基づくテキストデータ拡張手法を提案する。
AugGPTはトレーニングサンプルの各文を、概念的には似ているが意味的に異なる複数のサンプルに言い換える。
数ショットの学習テキスト分類タスクの実験結果は、提案したAugGPTアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2023-02-25T06:58:16Z) - Reweighting Augmented Samples by Minimizing the Maximal Expected Loss [51.2791895511333]
我々は,拡張標本の任意の重み付け損失に対する上限となる最大期待損失を構成する。
敵の訓練に触発されて、この最大期待損失を最小化し、単純で解釈可能なクローズドフォームソリューションを得る。
提案手法は, 一般に任意のデータ拡張法上に適用可能である。
論文 参考訳(メタデータ) (2021-03-16T09:31:04Z) - Untapped Potential of Data Augmentation: A Domain Generalization
Viewpoint [14.360826930970765]
本研究では,拡張に基づく手法の領域一般化の観点から考察する。
最先端の強化手法による探索は、学習された表現が訓練中に使用する歪みに対してさえ頑健でないことを示す。
論文 参考訳(メタデータ) (2020-07-09T09:40:54Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。