論文の概要: Random Text Perturbations Work, but not Always
- arxiv url: http://arxiv.org/abs/2209.00797v1
- Date: Fri, 2 Sep 2022 03:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:20:07.308721
- Title: Random Text Perturbations Work, but not Always
- Title(参考訳): ランダムテキストの摂動は機能するが、常に機能しない
- Authors: Zhengxiang Wang
- Abstract要約: 中国語と英語の両方のバイナリテキストマッチング分類タスクについて3つの実験を行った。
この拡張は3つのニューラルネットワーク分類モデルの試験セット性能に負と正の両方の効果をもたらすことが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present three large-scale experiments on binary text matching
classification task both in Chinese and English to evaluate the effectiveness
and generalizability of random text perturbations as a data augmentation
approach for NLP. It is found that the augmentation can bring both negative and
positive effects to the test set performance of three neural classification
models, depending on whether the models train on enough original training
examples. This remains true no matter whether five random text editing
operations, used to augment text, are applied together or separately. Our study
demonstrates with strong implication that the effectiveness of random text
perturbations is task specific and not generally positive.
- Abstract(参考訳): 本研究では,中国語と英語の2進テキストマッチング分類タスクにおける3つの大規模実験を行い,nlpのデータ拡張手法としてランダムテキスト摂動の有効性と一般化性を評価する。
モデルが十分なオリジナルトレーニングの例でトレーニングするかどうかによって,3つのニューラル分類モデルのテストセット性能に負と正の両方の効果をもたらすことが判明した。
テキストの増補に使われる5つのランダムテキスト編集操作が併用されるか別々に適用されるかに関わらず、これは事実である。
本研究は,ランダムテキスト摂動の有効性がタスク特有であり,一般には肯定的ではないことを示す。
関連論文リスト
- Ensembling Finetuned Language Models for Text Classification [55.15643209328513]
ファインタニング(英: Finetuning)は、特定のタスクに事前訓練されたモデルを適用するために、様々なコミュニティで一般的なプラクティスである。
ニューラルネットワークのアンサンブルは、通常、パフォーマンスを高め、信頼性の高い不確実性推定を提供するために使用される。
6つのデータセット上の5つの大きめのモデルから予測されたメタデータセットを提示し、異なるアンサンブル戦略の結果を報告する。
論文 参考訳(メタデータ) (2024-10-25T09:15:54Z) - Probabilistic Linguistic Knowledge and Token-level Text Augmentation [0.0]
REDAとREDA$_NG$という2つのテキスト拡張プログラムを開発した。
RedA$_NG$は、事前訓練された$n$-gram言語モデルを利用して、REDAの出力から最も可能性の高い拡張テキストを選択する。
確率論的言語知識の役割は最小限である。
論文 参考訳(メタデータ) (2023-06-29T03:02:04Z) - Revisiting text decomposition methods for NLI-based factuality scoring
of summaries [9.044665059626958]
細粒度分解が必ずしも事実性スコアの勝利戦略であるとは限らないことを示す。
また,従来提案されていたエンテーメントに基づくスコアリング手法の小さな変更により,性能が向上することを示した。
論文 参考訳(メタデータ) (2022-11-30T09:54:37Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - On Decoding Strategies for Neural Text Generators [73.48162198041884]
言語生成タスクと復号化戦略の相互作用について検討する。
生成したテキストの属性の変化をデコード戦略とタスクの両方の関数として測定する。
以上の結果から,これまで観察された結果と意外な結果の両方が明らかとなった。
論文 参考訳(メタデータ) (2022-03-29T16:25:30Z) - Constructing Contrastive samples via Summarization for Text
Classification with limited annotations [46.53641181501143]
テキスト要約を用いた言語タスクのコントラストサンプル構築のための新しい手法を提案する。
我々はこれらのサンプルを教師付きコントラスト学習に使用し、アノテーションを限定したより良いテキスト表現を得る。
実世界のテキスト分類データセット(Amazon-5、Yelp-5、AG News)の実験では、提案したコントラスト学習フレームワークの有効性が示されている。
論文 参考訳(メタデータ) (2021-04-11T20:13:24Z) - Contrastive Learning with Adversarial Perturbations for Conditional Text
Generation [49.055659008469284]
seq2seqモデルのコントラスト学習のための正負のサンプルを生成する原則的な方法を提案する。
具体的には、入力シーケンスに小さな摂動を加えることで、条件付き可能性を最小限に抑えるネガティブな例を生成します。
提案手法は,3つのテキスト生成タスクにおけるSeq2seqの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-12-14T06:20:27Z) - Improving Text Generation with Student-Forcing Optimal Transport [122.11881937642401]
トレーニングモードとテストモードで生成されたシーケンスに最適なトランスポート(OT)を提案する。
テキストシーケンスの構造的および文脈的情報に基づいて、OT学習を改善するための拡張も提案されている。
提案手法の有効性は,機械翻訳,テキスト要約,テキスト生成タスクにおいて検証される。
論文 参考訳(メタデータ) (2020-10-12T19:42:25Z) - Fine-Tuning Pretrained Language Models: Weight Initializations, Data
Orders, and Early Stopping [62.78338049381917]
教師付き下流タスクのための微調整済み文脈単語埋め込みモデルは、自然言語処理において一般的なものとなっている。
GLUEベンチマークから得られた4つのデータセットを実験し、無作為な種だけを変えながら、それぞれに数百回微調整されたBERTを実験した。
これまでに報告した結果と比較すると,性能が大幅に向上し,微調整試行回数の関数としてベストファウンドモデルの性能がどう変化するかが定量化される。
論文 参考訳(メタデータ) (2020-02-15T02:40:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。