論文の概要: RoBERTa-wwm-ext Fine-Tuning for Chinese Text Classification
- arxiv url: http://arxiv.org/abs/2103.00492v1
- Date: Wed, 24 Feb 2021 18:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 00:48:39.271547
- Title: RoBERTa-wwm-ext Fine-Tuning for Chinese Text Classification
- Title(参考訳): 中国語テキスト分類のためのRoBERTa-wwm-ext Fine-Tuning
- Authors: Zhuo Xu
- Abstract要約: 変換器による双方向表現(BERT)は、様々な自然言語処理タスクにおけるパフォーマンスを劇的に向上させる、有望な方法である。
本プロジェクトでは,中国語テキスト分類にroberta-wwm-extプリトレイン言語モデルを適用し,微調整を行った。
モデルは、法行動の記述と違法行為の記述を含む2つの分類に分類することができた。
- 参考スコア(独自算出の注目度): 5.71097144710995
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Bidirectional Encoder Representations from Transformers (BERT) have shown to
be a promising way to dramatically improve the performance across various
Natural Language Processing tasks [Devlin et al., 2019]. Meanwhile, progress
made over the past few years by various Neural Net-work has also proved the
effectiveness of Neural Network in the field of Natural Language Processing. In
this project, RoBERTa-wwm-ext [Cui et al., 2019] pre-train language model was
adopted and fine-tuned for Chinese text classification. The models were able to
classify Chinese texts into two categories, containing descriptions of legal
behavior and descriptions of illegal behavior. Four different models are also
proposed in the paper. Those models will use RoBERTa-wwm-extas their embedding
layer and feed the embedding into different neural networks. The motivation
be-hind proposing these models is straightforward. By introducing complex
output layer architecture, the overall performance of the models could be
improved. All the models were trained on a data set derived from Chinese public
court records, and the performance of different models were compared.The
experiment shows that the performance of pro-posed models failed to beat the
original RoBERTa-wwm-ext model in terms of accuracy and training efficiency.
- Abstract(参考訳): 変換器 (BERT) による双方向エンコーダ表現は,様々な自然言語処理タスク [Devlin et al., 2019] のパフォーマンスを劇的に向上させる,有望な方法である。
一方で、近年の様々なニューラルネットワークによる進歩は、自然言語処理の分野でニューラルネットワークの有効性も証明している。
このプロジェクトでは,RoBERTa-wwm-ext [Cui et al., 2019]プレトレイン言語モデルを採用し,中国語テキスト分類のための微調整を行った。
モデルは、法行動の記述と違法行為の記述を含む2つの分類に分類することができた。
論文では4つの異なるモデルも提案されている。
これらのモデルでは、RoBERTa-wwm-extasの埋め込み層を使用し、異なるニューラルネットワークへの埋め込みをフィードする。
これらのモデルを提案する動機は単純です。
複雑な出力層アーキテクチャを導入することで、モデル全体のパフォーマンスが向上する可能性がある。
これらのモデルは全て中国の公判記録から得られたデータセットで訓練され、異なるモデルのパフォーマンスを比較した結果、精度とトレーニング効率の点で、pro-posedモデルのパフォーマンスがオリジナルのroberta-wwm-extモデルに勝てなかったことが判明した。
関連論文リスト
- SimpleSpeech 2: Towards Simple and Efficient Text-to-Speech with Flow-based Scalar Latent Transformer Diffusion Models [64.40250409933752]
我々は、SimpleSpeech 2.0と呼ばれるシンプルで効率的な非自己回帰(NAR)TSフレームワークを実装することで、過去の出版物の上に構築した。
SimpleSpeech 2は、自己回帰(AR)法と非自己回帰(NAR)法の両方の長所を効果的に組み合わせている。
我々は,従来の作業と他の大規模TSモデル(SOTA)と比較して,生成性能と生成速度が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-08-25T17:07:39Z) - A Text-to-Text Model for Multilingual Offensive Language Identification [19.23565690468299]
本研究では,テキスト・トゥ・テキスト・トランスフォーマを用いた攻撃的言語識別のためのエンコーダ・デコーダアーキテクチャを用いた最初の事前学習モデルを提案する(T5)。
我々の事前学習されたT5モデルは、複数の英語ベンチマークにおいて、fBERTやHateBERTのような攻撃的言語検出のために微調整された他のトランスフォーマーベースモデルよりも優れている。
同様のアプローチで、mT5を用いて攻撃的言語識別のための最初の多言語事前訓練モデルを訓練する。
論文 参考訳(メタデータ) (2023-12-06T09:37:27Z) - MoEBERT: from BERT to Mixture-of-Experts via Importance-Guided
Adaptation [68.30497162547768]
本研究では,Mixture-of-Experts構造を用いてモデルキャパシティと推論速度を向上させるMoEBERTを提案する。
自然言語理解と質問応答タスクにおけるMoEBERTの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2022-04-15T23:19:37Z) - TunBERT: Pretrained Contextualized Text Representation for Tunisian
Dialect [0.0]
表現不足言語に対するモノリンガルトランスフォーマーに基づく言語モデルのトレーニングの実現可能性について検討する。
構造化データの代わりにノイズの多いWebクローリングデータを使用することは、そのような非標準言語にとってより便利であることを示す。
我々の最高のパフォーマンスTunBERTモデルは、下流の3つのタスクすべてにおいて最先端のタスクに到達または改善します。
論文 参考訳(メタデータ) (2021-11-25T15:49:50Z) - Neural Models for Offensive Language Detection [0.0]
攻撃的言語検出は、成長を続ける自然言語処理(NLP)アプリケーションである。
このような有害なコンテンツと戦うために、さまざまな機械学習モデルの改善と比較に貢献することが、この論文の重要な、挑戦的な目標である、と私たちは信じています。
論文 参考訳(メタデータ) (2021-05-30T13:02:45Z) - Lattice-BERT: Leveraging Multi-Granularity Representations in Chinese
Pre-trained Language Models [62.41139712595334]
中国語のための新しい事前学習パラダイムであるLattice-BERTを提案する。
文中の文字や単語から格子グラフを構築し、これらすべてのテキスト単位をトランスフォーマーに供給します。
本モデルが12層設定で平均1.5%の増加をもたらすことを示した。
論文 参考訳(メタデータ) (2021-04-15T02:36:49Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - From Universal Language Model to Downstream Task: Improving
RoBERTa-Based Vietnamese Hate Speech Detection [8.602181445598776]
汎用のRoBERTa言語モデルを特定のテキスト分類タスクであるベトナムのヘイト音声検出に適応させるパイプラインを提案する。
実験の結果,提案パイプラインの性能が著しく向上し,0.7221 f1のベトナム人ヘイトスピーチ検出キャンペーンが達成された。
論文 参考訳(メタデータ) (2021-02-24T09:30:55Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Revisiting Pre-Trained Models for Chinese Natural Language Processing [73.65780892128389]
我々は、中国語の事前学習言語モデルを再検討し、英語以外の言語での有効性について検討する。
また,RoBERTaを改良したMacBERTモデルを提案する。
論文 参考訳(メタデータ) (2020-04-29T02:08:30Z) - Abstractive Text Summarization based on Language Model Conditioning and
Locality Modeling [4.525267347429154]
BERT言語モデルに基づいてTransformerベースのニューラルモデルをトレーニングする。
さらに,BERTウィンドウサイズよりも長いテキストのチャンクワイズ処理が可能なBERTウィンドウ方式を提案する。
我々のモデルの結果は、CNN/Daily Mailデータセットのベースラインと最先端モデルと比較される。
論文 参考訳(メタデータ) (2020-03-29T14:00:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。