論文の概要: Opinion Mining and Analysis Using Hybrid Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2511.14796v1
- Date: Sun, 16 Nov 2025 19:04:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.457127
- Title: Opinion Mining and Analysis Using Hybrid Deep Neural Networks
- Title(参考訳): ハイブリッドディープニューラルネットワークを用いたオピニオンマイニングと解析
- Authors: Adel Hidri, Suleiman Ali Alsaif, Muteeb Alahmari, Eman AlShehri, Minyar Sassi Hidri,
- Abstract要約: 本稿では、双方向ゲート再帰ユニット(BGRU)とLSTM(Long Short-term memory)レイヤを組み合わせたハイブリッドディープニューラルネットワークモデルを導入し、感情分析を改善する。
私たちのモデルは、ネガティブな感情をリコールする際の注目すべき改善を示し、86%(バランスの取れていないデータセット)から96%(バランスのとれたデータセット)にエスカレートした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding customer attitudes has become a critical component of decision-making due to the growing influence of social media and e-commerce. Text-based opinions are the most structured, hence playing an important role in sentiment analysis. Most of the existing methods, which include lexicon-based approaches and traditional machine learning techniques, are insufficient for handling contextual nuances and scalability. While the latter has limitations in model performance and generalization, deep learning (DL) has achieved improvement, especially on semantic relationship capturing with recurrent neural networks (RNNs) and convolutional neural networks (CNNs). The aim of the study is to enhance opinion mining by introducing a hybrid deep neural network model that combines a bidirectional gated recurrent unit (BGRU) and long short-term memory (LSTM) layers to improve sentiment analysis, particularly addressing challenges such as contextual nuance, scalability, and class imbalance. To substantiate the efficacy of the proposed model, we conducted comprehensive experiments utilizing benchmark datasets, encompassing IMDB movie critiques and Amazon product evaluations. The introduced hybrid BGRULSTM (HBGRU-LSTM) architecture attained a testing accuracy of 95%, exceeding the performance of traditional DL frameworks such as LSTM (93.06%), CNN+LSTM (93.31%), and GRU+LSTM (92.20%). Moreover, our model exhibited a noteworthy enhancement in recall for negative sentiments, escalating from 86% (unbalanced dataset) to 96% (balanced dataset), thereby ensuring a more equitable and just sentiment classification. Furthermore, the model diminished misclassification loss from 20.24% for unbalanced to 13.3% for balanced dataset, signifying enhanced generalization and resilience.
- Abstract(参考訳): ソーシャルメディアやeコマースの影響が高まり、顧客の態度を理解することが意思決定の重要な要素となっている。
テキストベースの意見は最も構造化されており、感情分析において重要な役割を果たす。
既存の手法の多くは、レキシコンベースのアプローチや従来の機械学習技術を含むが、文脈のニュアンスやスケーラビリティを扱うには不十分である。
後者はモデル性能と一般化に制限があるが、ディープラーニング(DL)は特に、リカレントニューラルネットワーク(RNN)と畳み込みニューラルネットワーク(CNN)とのセマンティック関係のキャプチャにおいて改善されている。
本研究の目的は、双方向ゲートリカレントユニット(BGRU)と長期短期記憶(LSTM)レイヤを組み合わせたハイブリッドディープニューラルネットワークモデルを導入し、感情分析の改善、特に文脈ニュアンス、スケーラビリティ、クラス不均衡といった課題に対処することで、意見マイニングを強化することである。
提案モデルの有効性を検証するため,IMDB映画評論とAmazon製品評価を含むベンチマークデータセットを用いた総合的な実験を行った。
導入されたハイブリッドBGRULSTM (HBGRU-LSTM) アーキテクチャは、LSTM (93.06%)、CNN+LSTM (93.31%)、GRU+LSTM (92.20%) といった従来のDLフレームワークを上回る95%の精度でテストされた。
さらに, このモデルでは, ネガティブ感情のリコールにおいて, 86% (非バランスデータセット) から 96% (バランスデータセット) にエスカレートした。
さらに、このモデルは不正分類の損失を20.24%、バランスの取れていないデータセットは13.3%に減らし、一般化とレジリエンスの強化を意味した。
関連論文リスト
- SwS: Self-aware Weakness-driven Problem Synthesis in Reinforcement Learning for LLM Reasoning [95.28059121743831]
RLVR(Reinforcement Learning with Verifiable Rewards)は、複雑な推論タスクにおいて、大規模言語モデル(LLM)のトレーニングに有効であることが証明されている。
本稿では、モデル欠陥を体系的に識別し、それらを問題解決に活用する自己認識弱さ駆動型問題合成フレームワーク(SwS)を提案する。
SwSはモデルを自己識別し、RLの弱点に対処することで堅牢な一般化を可能にし、7Bモデルと32Bモデルで平均パフォーマンスが10.0%と7.7%向上した。
論文 参考訳(メタデータ) (2025-06-10T17:02:00Z) - Model-agnostic Mitigation Strategies of Data Imbalance for Regression [0.0]
データ不均衡は、回帰タスクにおいて広範囲にわたる課題として持続し、モデルパフォーマンスのバイアスを導入し、予測信頼性を損なう。
既存のサンプリング手法を構築・改善する高度な緩和手法を提案する。
モデルのアンサンブル(不均衡緩和で訓練されたモデルと、非バランスで訓練されたモデル)の構築は、これらの負の効果を著しく減少させることを実証する。
論文 参考訳(メタデータ) (2025-06-02T09:46:08Z) - An Innovative CGL-MHA Model for Sarcasm Sentiment Recognition Using the MindSpore Framework [0.0]
サルカズムは、明らかに肯定的あるいは誇張された言語を通して否定的な感情を伝達する。
本稿では, CNN, Gated Recurrent Units (GRU), Long Short-Term Memory (LSTM), Multi-Head Attention 機構を統合した革新的な皮肉検出モデルを提案する。
HeadlinesとRiloffの2つの皮肉検出データセットの実験では、モデルが81.20%、F1スコアが80.77%に達することが示されている。
論文 参考訳(メタデータ) (2024-11-02T14:33:47Z) - Enhancing Cognitive Workload Classification Using Integrated LSTM Layers and CNNs for fNIRS Data Analysis [13.74551296919155]
本稿では、ディープラーニングモデルにおける畳み込みニューラルネットワーク(CNN)の有効性に対する長期記憶層の影響について検討する。
LSTMレイヤを統合することで、モデルがfNIRSデータ内の時間的依存関係をキャプチャし、認知状態をより包括的に理解することが可能になる。
論文 参考訳(メタデータ) (2024-07-22T11:28:34Z) - Survival Analysis with Adversarial Regularization [3.9686445409447617]
生存分析(Survival Analysis、SA)は、医学、防衛学、金融学、航空宇宙学などの分野で応用されるイベントが起こるまでの時間をモデル化する。
最近の研究は、ニューラルネットワーク(NN)がSAの複雑なデータパターンを効果的にキャプチャできることを示唆している。
我々は、NN検証の進歩を活用して、堅牢で完全なパラメトリックSAモデルのためのトレーニング目標を開発する。
論文 参考訳(メタデータ) (2023-12-26T12:18:31Z) - Predicting Resilience with Neural Networks [1.4425878137951238]
レジリエンスエンジニアリングは、システムが破壊的な出来事から生き残り、回復する能力を研究する。
本稿では,システム性能のモデル化と予測のための3つの代替ニューラルネットワーク(NN)アプローチを提案する。
論文 参考訳(メタデータ) (2023-08-11T17:29:49Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。