論文の概要: Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function
- arxiv url: http://arxiv.org/abs/2009.04007v1
- Date: Tue, 8 Sep 2020 21:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 21:12:19.570657
- Title: Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function
- Title(参考訳): 混合目的関数による半スーパービジョンテキスト分類のためのLSTMネットワークの再検討
- Authors: Devendra Singh Sachan and Manzil Zaheer and Ruslan Salakhutdinov
- Abstract要約: 我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
- 参考スコア(独自算出の注目度): 106.69643619725652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study bidirectional LSTM network for the task of text
classification using both supervised and semi-supervised approaches. Several
prior works have suggested that either complex pretraining schemes using
unsupervised methods such as language modeling (Dai and Le 2015; Miyato, Dai,
and Goodfellow 2016) or complicated models (Johnson and Zhang 2017) are
necessary to achieve a high classification accuracy. However, we develop a
training strategy that allows even a simple BiLSTM model, when trained with
cross-entropy loss, to achieve competitive results compared with more complex
approaches. Furthermore, in addition to cross-entropy loss, by using a
combination of entropy minimization, adversarial, and virtual adversarial
losses for both labeled and unlabeled data, we report state-of-the-art results
for text classification task on several benchmark datasets. In particular, on
the ACL-IMDB sentiment analysis and AG-News topic classification datasets, our
method outperforms current approaches by a substantial margin. We also show the
generality of the mixed objective function by improving the performance on
relation extraction task.
- Abstract(参考訳): 本稿では,教師付きと半教師付きの両方のアプローチを用いて,テキスト分類作業のための双方向LSTMネットワークについて検討する。
いくつかの先行研究は、言語モデリング(Dai, Le 2015, Miyato, Dai, Goodfellow 2016)や複雑なモデル(Johnson and Zhang 2017)のような教師なしの手法を用いた複雑な事前学習スキームが、高い分類精度を達成するために必要であることを示している。
しかし,クロスエントロピー損失をトレーニングする場合,単純なbilstmモデルであっても,より複雑なアプローチと比較して競争結果を達成するためのトレーニング戦略を開発する。
さらに,ラベル付きデータとラベル付きデータの両方に対して,エントロピー最小化,逆数,仮想対数損失の組み合わせを用いて,テキスト分類タスクの最先端結果について報告する。
特に、ACL-IMDBの感情分析とAG-Newsのトピック分類データセットにおいて、本手法は現在のアプローチよりもかなり優れている。
また,関係抽出タスクの性能を向上させることにより,混合目的関数の汎用性を示す。
関連論文リスト
- Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Bayesian Learning-driven Prototypical Contrastive Loss for Class-Incremental Learning [42.14439854721613]
本稿では,クラス増分学習シナリオに特化して,ベイズ学習駆動型コントラスト損失(BLCL)を持つプロトタイプネットワークを提案する。
提案手法は,ベイズ学習手法を用いて,クロスエントロピーとコントラスト損失関数のバランスを動的に適用する。
論文 参考訳(メタデータ) (2024-05-17T19:49:02Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Adaptive Meta-learner via Gradient Similarity for Few-shot Text
Classification [11.035878821365149]
本稿では, モデル一般化能力の向上を図るため, 適応型メタラーナをグラディエント類似性(AMGS)を介して提案する。
いくつかのベンチマークによる実験結果から,提案したAMGSは連続的にテキスト分類性能を向上することが示された。
論文 参考訳(メタデータ) (2022-09-10T16:14:53Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Adaptive Affinity Loss and Erroneous Pseudo-Label Refinement for Weakly
Supervised Semantic Segmentation [48.294903659573585]
本稿では,多段階アプローチの親和性学習を単一段階モデルに組み込むことを提案する。
深層ニューラルネットワークは、トレーニングフェーズで包括的なセマンティック情報を提供するために使用される。
提案手法の有効性を評価するため,PASCAL VOC 2012データセットを用いて実験を行った。
論文 参考訳(メタデータ) (2021-08-03T07:48:33Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z) - Adaptive Name Entity Recognition under Highly Unbalanced Data [5.575448433529451]
我々は,2方向LSTM (BI-LSTM) 上に積み重ねた条件付きランダムフィールド (CRF) 層からなるニューラルアーキテクチャについて実験を行った。
WeakクラスとStrongクラスを2つの異なるセットに分割し、各セットのパフォーマンスを最適化するために2つのBi-LSTM-CRFモデルを適切に設計するアドオン分類モデルを提案する。
論文 参考訳(メタデータ) (2020-03-10T06:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。