論文の概要: Multi-refined Feature Enhanced Sentiment Analysis Using Contextual Instruction
- arxiv url: http://arxiv.org/abs/2511.00537v2
- Date: Tue, 04 Nov 2025 06:25:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.830805
- Title: Multi-refined Feature Enhanced Sentiment Analysis Using Contextual Instruction
- Title(参考訳): 文脈指示を用いた多精細特徴強調感性分析
- Authors: Peter Atandoh, Jie Zou, Weikang Guo, Jiwei Wei, Zheng Wang,
- Abstract要約: CISEA-MRFEは、文脈指示(CI)、意味強化強化(SEA)、多精細特徴抽出(MRFE)を統合したPLMベースのフレームワークである。
CISEA-MRFEは強いベースラインを一貫して上回り、IMDbで4.6%、Yelpで6.5%、Twitterで30.3%、Amazonで4.1%の精度で相対的に改善されている。
これらの結果は,様々な領域にまたがる感情分類のためのアプローチの有効性と一般化能力について検証した。
- 参考スコア(独自算出の注目度): 15.348505859065689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentiment analysis using deep learning and pre-trained language models (PLMs) has gained significant traction due to their ability to capture rich contextual representations. However, existing approaches often underperform in scenarios involving nuanced emotional cues, domain shifts, and imbalanced sentiment distributions. We argue that these limitations stem from inadequate semantic grounding, poor generalization to diverse linguistic patterns, and biases toward dominant sentiment classes. To overcome these challenges, we propose CISEA-MRFE, a novel PLM-based framework integrating Contextual Instruction (CI), Semantic Enhancement Augmentation (SEA), and Multi-Refined Feature Extraction (MRFE). CI injects domain-aware directives to guide sentiment disambiguation; SEA improves robustness through sentiment-consistent paraphrastic augmentation; and MRFE combines a Scale-Adaptive Depthwise Encoder (SADE) for multi-scale feature specialization with an Emotion Evaluator Context Encoder (EECE) for affect-aware sequence modeling. Experimental results on four benchmark datasets demonstrate that CISEA-MRFE consistently outperforms strong baselines, achieving relative improvements in accuracy of up to 4.6% on IMDb, 6.5% on Yelp, 30.3% on Twitter, and 4.1% on Amazon. These results validate the effectiveness and generalization ability of our approach for sentiment classification across varied domains.
- Abstract(参考訳): 深層学習と事前学習言語モデル(PLM)を用いた感性分析は、リッチな文脈表現を捉える能力により、大きな注目を集めている。
しかしながら、既存のアプローチは、微妙な感情的手がかり、ドメインシフト、不均衡な感情分布を含むシナリオにおいて、しばしばパフォーマンスが劣る。
これらの制限は、セマンティック・グラウンディングの不十分さ、多種多様な言語パターンへの一般化の低さ、支配的な感情階級への偏見に起因していると我々は主張する。
CISEA-MRFEは、コンテキスト命令(CI)、セマンティック拡張拡張(SEA)、多精細特徴抽出(MRFE)を統合した新しいPLMベースのフレームワークである。
CIは、感情の曖昧さを導くためにドメイン認識ディレクティブを注入する。SEAは、感情に一貫性のあるパラフラスティック拡張を通じて堅牢性を改善する。MRFEは、マルチスケールの機能専門化のためのスケール適応Depthwise Encoder(SADE)と、感情評価器コンテキストエンコーダ(EECE)を組み合わせて、感情認識シーケンスモデリングを行う。
4つのベンチマークデータセットの実験結果によると、CISEA-MRFEは強いベースラインを一貫して上回り、IMDbでは4.6%、Yelpでは6.5%、Twitterでは30.3%、Amazonでは4.1%の精度向上を達成した。
これらの結果は,様々な領域にまたがる感情分類のためのアプローチの有効性と一般化能力について検証した。
関連論文リスト
- Joint Learning using Mixture-of-Expert-Based Representation for Enhanced Speech Generation and Robust Emotion Recognition [54.44798086835314]
音声感情認識(SER)は感情認識音声システム構築において重要な役割を担っているが,その性能は雑音下で著しく低下する。
本稿では, フレームワイド・エキスパート・ルーティングを自己教師付き音声表現に応用した, フレキシブルMTLフレームワークSparse Mixture-of-Experts Representation Integration Technique (Sparse MERIT)を提案する。
MSP-Podcastコーパスの実験では、Sparse MERITはSERとSEの両方のタスクのベースラインモデルより一貫して優れていた。
論文 参考訳(メタデータ) (2025-09-10T10:18:56Z) - When Punctuation Matters: A Large-Scale Comparison of Prompt Robustness Methods for LLMs [55.20230501807337]
本報告では, 統一実験フレームワーク内での迅速なロバスト性向上のための5つの手法の体系的評価を行う。
Llama、Qwen、Gemmaファミリーの8つのモデルに対して、Natural Instructionsデータセットから52のタスクをベンチマークする。
論文 参考訳(メタデータ) (2025-08-15T10:32:50Z) - Model-Agnostic Sentiment Distribution Stability Analysis for Robust LLM-Generated Texts Detection [23.153044933861988]
大規模言語モデル(LLM)生成テキストを検出するためのモデルに依存しないフレームワークであるSentiDetectを提案する。
本手法は, LLM出力が感情的一貫したパターンを示す傾向を示すのに対して, 人文テキストの方が感情的多様性が高いという経験的観察に動機付けられている。
我々は,Gemini-1.5-Pro,Claude-3,GPT-4-0613,LLaMa-3.3を含む5種類の多種多様なLLMを用いてSentiDetectを評価した。
論文 参考訳(メタデータ) (2025-08-09T09:55:47Z) - Hierarchical Adaptive Expert for Multimodal Sentiment Analysis [5.755715236558973]
マルチモーダル感情分析は、多様なコミュニケーションチャネルにおける人間の感情を理解する重要なツールとして登場した。
本稿では,進化的最適化,クロスモーダルな知識伝達,マルチタスク学習を組み合わせた新しいフレームワークHAEMSAを提案する。
大規模な実験では、複数のベンチマークデータセットにまたがるHAEMSAの優れたパフォーマンスが示されている。
論文 参考訳(メタデータ) (2025-03-25T09:52:08Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。