論文の概要: Semi-Supervised Models via Data Augmentationfor Classifying Interactive
Affective Responses
- arxiv url: http://arxiv.org/abs/2004.10972v1
- Date: Thu, 23 Apr 2020 05:02:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 09:39:08.522135
- Title: Semi-Supervised Models via Data Augmentationfor Classifying Interactive
Affective Responses
- Title(参考訳): 対話型感情応答の分類のためのデータ拡張による半監督モデル
- Authors: Jiaao Chen, Yuwei Wu, Diyi Yang
- Abstract要約: 本稿では、対話型感情応答を分類する半教師付きテキスト分類システムSMDA(Data Augmentation)を提案する。
ラベル付き文に対しては,ラベル分布の均一化と学習過程における教師付き損失の計算のためにデータ拡張を行った。
ラベルなし文に対しては,ラベルなし文に対する低エントロピー予測を擬似ラベルとして検討した。
- 参考スコア(独自算出の注目度): 85.04362095899656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present semi-supervised models with data augmentation (SMDA), a
semi-supervised text classification system to classify interactive affective
responses. SMDA utilizes recent transformer-based models to encode each
sentence and employs back translation techniques to paraphrase given sentences
as augmented data. For labeled sentences, we performed data augmentations to
uniform the label distributions and computed supervised loss during training
process. For unlabeled sentences, we explored self-training by regarding
low-entropy predictions over unlabeled sentences as pseudo labels, assuming
high-confidence predictions as labeled data for training. We further introduced
consistency regularization as unsupervised loss after data augmentations on
unlabeled data, based on the assumption that the model should predict similar
class distributions with original unlabeled sentences as input and augmented
sentences as input. Via a set of experiments, we demonstrated that our system
outperformed baseline models in terms of F1-score and accuracy.
- Abstract(参考訳): 本稿では、対話型感情応答を分類する半教師付きテキスト分類システムSMDA(Data Augmentation)を提案する。
SMDAは、最新のトランスフォーマーベースのモデルを用いて各文をエンコードし、与えられた文を拡張データとして言い換えるために逆変換技術を用いる。
ラベル付き文に対しては,ラベル分布の均一化と学習過程における教師付き損失の計算のためにデータ拡張を行った。
ラベルなし文に対しては,ラベルなし文を擬似ラベルとして低エントロピー予測を考慮し,信頼度予測をラベル付きデータとして検討した。
さらに,ラベルなしデータに対するデータ拡張後の教師なし損失として一貫性規則化を導入し,原文を入力として,追加文を入力として類似したクラス分布を予測すべきと仮定した。
実験の結果,本システムはf1-scoreと精度でベースラインモデルよりも優れていた。
関連論文リスト
- SenTest: Evaluating Robustness of Sentence Encoders [0.4194295877935868]
本研究は文エンコーダの堅牢性を評価することに焦点を当てる。
我々はその堅牢性を評価するためにいくつかの敵攻撃を用いる。
実験結果は文エンコーダの堅牢性を強く損なう。
論文 参考訳(メタデータ) (2023-11-29T15:21:35Z) - Measuring and Improving Attentiveness to Partial Inputs with
Counterfactuals [95.5442607785241]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Self-Evolution Learning for Mixup: Enhance Data Augmentation on Few-Shot
Text Classification Tasks [75.42002070547267]
テキスト分類におけるデータ拡張のための自己進化学習(SE)に基づくミックスアップ手法を提案する。
モデル出力と原サンプルの1つのホットラベルを線形に補間して,新しい軟質なラベル混在を生成する,新しいインスタンス固有ラベル平滑化手法を提案する。
論文 参考訳(メタデータ) (2023-05-22T23:43:23Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Discriminative and Generative Transformer-based Models For Situation
Entity Classification [8.029049649310211]
我々は、状況エンティティ(SE)分類タスクを、利用可能なトレーニングデータの量に応じて再検討する。
変換器を用いた変分オートエンコーダを用いて文を低次元の潜在空間に符号化する。
論文 参考訳(メタデータ) (2021-09-15T17:07:07Z) - Unsupervised neural adaptation model based on optimal transport for
spoken language identification [54.96267179988487]
トレーニングセットとテストセット間の音響音声の統計的分布のミスマッチにより,音声言語識別(SLID)の性能が大幅に低下する可能性がある。
SLIDの分布ミスマッチ問題に対処するために,教師なしニューラル適応モデルを提案する。
論文 参考訳(メタデータ) (2020-12-24T07:37:19Z) - Robustness to Spurious Correlations in Text Classification via
Automatically Generated Counterfactuals [8.827892752465958]
自動生成された反実データを用いてトレーニングデータを増強し、堅牢なテキスト分類器のトレーニングを提案する。
因果的特徴を強調し,非因果的特徴を強調することで,ロバスト分類器は有意義で信頼性の高い予測を行うことを示す。
論文 参考訳(メタデータ) (2020-12-18T03:57:32Z) - Unsupervised Data Augmentation with Naive Augmentation and without
Unlabeled Data [40.82826366059613]
Unsupervised Data Augmentation (UDA) は、モデルの予測の違いを解析するために一貫性損失を適用する半教師付き手法である。
本稿では,UDAを再検討し,その有効性を示す。
一貫性の喪失を適用することで、ラベルのないデータなしで有意義な利益が得られることが分かりました。
論文 参考訳(メタデータ) (2020-10-22T18:01:51Z) - Self-training Improves Pre-training for Natural Language Understanding [63.78927366363178]
我々は、半教師付き学習を通じてラベルのないデータを活用する別の方法として、自己学習について研究する。
本稿では,ラベル付きデータからタスク固有のクエリの埋め込みを計算するデータ拡張手法であるSentAugmentを紹介する。
我々のアプローチは、標準的なテキスト分類ベンチマークで最大2.6%の改善を達成し、スケーラブルで効果的な自己学習に繋がる。
論文 参考訳(メタデータ) (2020-10-05T17:52:25Z) - Learning the Prediction Distribution for Semi-Supervised Learning with
Normalising Flows [6.789370732159177]
画像分類のための半教師付き学習(SSL)において、完全に教師付き性能に近い印象的な結果が得られた。
本稿では,ラベル予測上の分布を考慮したSSLの確率論的一般化手法を提案する。
出力複雑性の異なるコンピュータビジョンタスクに対して,このアプローチの汎用性を実証する。
論文 参考訳(メタデータ) (2020-07-06T13:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。