論文の概要: Lexicon-based Methods vs. BERT for Text Sentiment Analysis
- arxiv url: http://arxiv.org/abs/2111.10097v1
- Date: Fri, 19 Nov 2021 08:47:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-22 16:07:49.541986
- Title: Lexicon-based Methods vs. BERT for Text Sentiment Analysis
- Title(参考訳): テキスト感性分析のための辞書ベース手法とBERT
- Authors: Anastasia Kotelnikova, Danil Paschenko, Klavdiya Bochenina, Evgeny
Kotelnikov
- Abstract要約: ロシア語に適応したSO-CALとSentiStrength lexiconに基づく手法
RuBERTはレキシコン法を平均で上回っているが、SO-CALは16の4コーパスでRuBERTを上回っている。
- 参考スコア(独自算出の注目度): 0.15293427903448023
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The performance of sentiment analysis methods has greatly increased in recent
years. This is due to the use of various models based on the Transformer
architecture, in particular BERT. However, deep neural network models are
difficult to train and poorly interpretable. An alternative approach is
rule-based methods using sentiment lexicons. They are fast, require no
training, and are well interpreted. But recently, due to the widespread use of
deep learning, lexicon-based methods have receded into the background. The
purpose of the article is to study the performance of the SO-CAL and
SentiStrength lexicon-based methods, adapted for the Russian language. We have
tested these methods, as well as the RuBERT neural network model, on 16 text
corpora and have analyzed their results. RuBERT outperforms both lexicon-based
methods on average, but SO-CAL surpasses RuBERT for four corpora out of 16.
- Abstract(参考訳): 近年,感情分析手法の性能が大幅に向上している。
これはTransformerアーキテクチャ、特にBERTに基づく様々なモデルの使用によるものである。
しかし、深層ニューラルネットワークモデルは訓練が困難であり、解釈が不十分である。
別のアプローチとして、感情レキシコンを用いたルールベース手法がある。
それらは速く、訓練を必要としず、よく解釈される。
しかし、最近はディープラーニングの普及により、レキシコンベースの手法が背景に回帰している。
本稿の目的は,ロシア語に適応したSO-CAL法とSentiStrength lexicon法の性能を検討することである。
我々は、これらの手法、およびrubertニューラルネットワークモデルを16テキストコーパス上でテストし、その結果を分析した。
RuBERTはレキシコン法を平均で上回っているが、SO-CALは16の4コーパスでRuBERTを上回っている。
関連論文リスト
- Fuzzy Fingerprinting Transformer Language-Models for Emotion Recognition
in Conversations [0.7874708385247353]
会話における感情認識(ERC)を実現するための2つのアプローチを組み合わせることを提案する。
我々は,事前に訓練したRoBERTaに発話と以前の会話のターンを供給し,文脈的埋め込み発話表現を得る。
広く使われているDailyDialog ERCベンチマークデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-09-08T12:26:01Z) - Pre-trained Embeddings for Entity Resolution: An Experimental Analysis
[Experiment, Analysis & Benchmark] [65.11858854040544]
我々は、17の確立されたベンチマークデータセットに対して、12のポピュラー言語モデルの徹底的な実験分析を行う。
まず、全ての入力エンティティを高密度な埋め込みベクトルに変換するためのベクトル化のオーバーヘッドを評価する。
次に,そのブロッキング性能を調査し,詳細なスケーラビリティ解析を行い,最先端のディープラーニングベースのブロッキング手法と比較する。
第3に、教師なしマッチングと教師なしマッチングの両方に対して、相対的な性能で締めくくります。
論文 参考訳(メタデータ) (2023-04-24T08:53:54Z) - Transformer-based approaches to Sentiment Detection [55.41644538483948]
テキスト分類のための4種類の最先端変圧器モデルの性能について検討した。
RoBERTa変換モデルは82.6%のスコアでテストデータセット上で最高のパフォーマンスを示し、品質予測に非常に推奨されている。
論文 参考訳(メタデータ) (2023-03-13T17:12:03Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - BERT-Based Combination of Convolutional and Recurrent Neural Network for
Indonesian Sentiment Analysis [0.0]
本研究は、インドネシアの感情分析のためのBERT表現を用いた従来のハイブリッドディープラーニングを拡張した。
シミュレーションにより,BERT表現はすべてのハイブリッドアーキテクチャの精度を向上させることが示された。
論文 参考訳(メタデータ) (2022-11-10T00:32:40Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - KinyaBERT: a Morphology-aware Kinyarwanda Language Model [1.2183405753834562]
教師なしサブワードトークン化法は、形態的にリッチな言語を扱うのに最適である。
本稿では, 形態素解析を応用し, 構造的構成性を明確に表現する, 単純かつ効果的な2層BERTアーキテクチャを提案する。
提案手法を低リソース形態素に富んだKinyaarwanda言語上で評価し,モデルアーキテクチャKinyaBERTを命名した。
論文 参考訳(メタデータ) (2022-03-16T08:36:14Z) - Does BERT look at sentiment lexicon? [0.0]
本稿では,ロシア語RuBERTモデルの注意重み行列について検討する。
我々は感傷テキストコーパスでRuBERTを微調整し、感傷的および中立的語彙に対する注意重みの分布を比較した。
論文 参考訳(メタデータ) (2021-11-19T08:50:48Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。