論文の概要: Empirical evaluation of shallow and deep learning classifiers for Arabic
sentiment analysis
- arxiv url: http://arxiv.org/abs/2112.00534v1
- Date: Wed, 1 Dec 2021 14:45:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 19:48:21.524872
- Title: Empirical evaluation of shallow and deep learning classifiers for Arabic
sentiment analysis
- Title(参考訳): アラビア語感情分析のための浅層・深層学習分類器の実証評価
- Authors: Ali Bou Nassif, Abdollah Masoud Darya, Ashraf Elnagar
- Abstract要約: 本研究は、アラビア語レビューの感情分析のためのディープラーニングモデルの性能を詳細に比較したものである。
この研究で使用されるデータセットは、アラビア語のホテルと本レビューデータセットである。
その結果,2次・複数ラベル分類では深層学習が浅層学習より優れており,文献で報告された同様の研究結果とは対照的であった。
- 参考スコア(独自算出の注目度): 1.1172382217477126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work presents a detailed comparison of the performance of deep learning
models such as convolutional neural networks (CNN), long short-term memory
(LSTM), gated recurrent units (GRU), their hybrids, and a selection of shallow
learning classifiers for sentiment analysis of Arabic reviews. Additionally,
the comparison includes state-of-the-art models such as the transformer
architecture and the araBERT pre-trained model. The datasets used in this study
are multi-dialect Arabic hotel and book review datasets, which are some of the
largest publicly available datasets for Arabic reviews. Results showed deep
learning outperforming shallow learning for binary and multi-label
classification, in contrast with the results of similar work reported in the
literature. This discrepancy in outcome was caused by dataset size as we found
it to be proportional to the performance of deep learning models. The
performance of deep and shallow learning techniques was analyzed in terms of
accuracy and F1 score. The best performing shallow learning technique was
Random Forest followed by Decision Tree, and AdaBoost. The deep learning models
performed similarly using a default embedding layer, while the transformer
model performed best when augmented with araBERT.
- Abstract(参考訳): 本稿では,畳み込みニューラルネットワーク (cnn) ,long short-term memory (lstm), gated recurrent units (gru), their hybrids, and a selection of shallow learning classifiers for sentiment analysis of arabic reviewsなどのディープラーニングモデルの性能比較を行った。
さらに、この比較には、トランスフォーマーアーキテクチャやaraBERT事前訓練モデルのような最先端モデルが含まれている。
この研究で使用されたデータセットは、アラビア語のレビュー用に公開されている最大のデータセットの1つであるマルチダイアレクトアラビア語ホテルとブックレビューデータセットである。
その結果,二段分類と多段分類では深層学習が浅層学習よりも優れており,文献に類似した研究の結果とは対照的であった。
この結果の不一致はデータセットのサイズによるもので、ディープラーニングモデルのパフォーマンスに比例していることが分かりました。
深層学習法と浅層学習法の性能を, 精度とf1得点の観点から解析した。
最も優れた浅層学習技術はランダムフォレスト、次いで決定木、そしてAdaBoostである。
ディープラーニングモデルも同様にデフォルトの埋め込み層を使用して実行され、トランスフォーマーモデルは araBERT で拡張した場合に最もよく動作した。
関連論文リスト
- Modern Neighborhood Components Analysis: A Deep Tabular Baseline Two Decades Later [59.88557193062348]
我々は、インスタンス間のセマンティックな類似性をキャプチャする線形射影を学習するために設計された古典的近傍成分分析(NCA)を再考する。
学習目的の調整や深層学習アーキテクチャの統合といった微調整は,NAAの性能を著しく向上させることがわかった。
また,提案したModernNCAの効率性と予測精度を向上する,近隣のサンプリング戦略も導入する。
論文 参考訳(メタデータ) (2024-07-03T16:38:57Z) - Enhancing Sentiment Analysis Results through Outlier Detection
Optimization [0.5439020425819]
本研究では,主観的ラベル付きテキストデータにおける外れ値の同定と対処の可能性について検討する。
本研究では,1クラス分類法であるDeep SVDDアルゴリズムを用いて,9つのテキストベース感情と感情分析データセットの外れ値を検出する。
論文 参考訳(メタデータ) (2023-11-25T18:20:43Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - An Information-Theoretic Analysis of Compute-Optimal Neural Scaling Laws [24.356906682593532]
大規模ニューラルネットワークにおけるモデルとトレーニングデータセットサイズ間の計算-最適トレードオフについて検討する。
以上の結果から, チンチラの実証分析で裏付けられる線形関係が示唆された。
論文 参考訳(メタデータ) (2022-12-02T18:46:41Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - Deep Learning Models for Knowledge Tracing: Review and Empirical
Evaluation [2.423547527175807]
我々は,オープンで広く利用されているデータセットを用いた深層学習知識追跡(DLKT)モデルをレビューし,評価する。
評価されたDLKTモデルは、以前報告した結果の再現性と評価のために再実装されている。
論文 参考訳(メタデータ) (2021-12-30T14:19:27Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - PK-GCN: Prior Knowledge Assisted Image Classification using Graph
Convolution Networks [3.4129083593356433]
クラス間の類似性は、分類のパフォーマンスに影響を与える可能性がある。
本稿では,クラス類似性の知識を畳み込みニューラルネットワークモデルに組み込む手法を提案する。
実験結果から, 利用可能なデータの量が少ない場合には, 分類精度が向上することが示唆された。
論文 参考訳(メタデータ) (2020-09-24T18:31:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。