論文の概要: Exploiting Vietnamese Social Media Characteristics for Textual Emotion
Recognition in Vietnamese
- arxiv url: http://arxiv.org/abs/2009.11005v3
- Date: Tue, 27 Oct 2020 14:39:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 16:02:50.486446
- Title: Exploiting Vietnamese Social Media Characteristics for Textual Emotion
Recognition in Vietnamese
- Title(参考訳): ベトナムにおけるテキスト感情認識のためのベトナムのソーシャルメディア特性
- Authors: Khang Phuoc-Quy Nguyen and Kiet Van Nguyen
- Abstract要約: データ前処理がテキスト感情認識における機械学習手法にどのように影響するかを示すために、いくつかの実験を行った。
これらの実験は、ベンチマークデータセットとしてベトナムソーシャルメディア感情コーパス(UIT-VSMEC)で実施される。
実験により,ベトナムのソーシャルメディア特性に基づく適切な事前処理技術により,Multinomial Logistic Regression (MLR) が64.40%のF1スコアを達成できた。
- 参考スコア(独自算出の注目度): 3.3504365823045044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Textual emotion recognition has been a promising research topic in recent
years. Many researchers aim to build more accurate and robust emotion detection
systems. In this paper, we conduct several experiments to indicate how data
pre-processing affects a machine learning method on textual emotion
recognition. These experiments are performed on the Vietnamese Social Media
Emotion Corpus (UIT-VSMEC) as the benchmark dataset. We explore Vietnamese
social media characteristics to propose different pre-processing techniques,
and key-clause extraction with emotional context to improve the machine
performance on UIT-VSMEC. Our experimental evaluation shows that with
appropriate pre-processing techniques based on Vietnamese social media
characteristics, Multinomial Logistic Regression (MLR) achieves the best
F1-score of 64.40%, a significant improvement of 4.66% over the CNN model built
by the authors of UIT-VSMEC (59.74%).
- Abstract(参考訳): テキスト感情認識は近年,有望な研究課題となっている。
多くの研究者は、より正確で堅牢な感情検出システムの構築を目指している。
本稿では,テキスト感情認識において,データの事前処理が機械学習手法にどのように影響するかを示す実験を行う。
これらの実験は、ベンチマークデータセットとしてベトナムソーシャルメディア感情コーパス(UIT-VSMEC)で実施される。
ベトナムのソーシャルメディアの特徴を探求し,異なる前処理手法を提案するとともに,情緒的文脈によるキークローズ抽出を行い,UIT-VSMECにおける機械性能の向上を図る。
UIT-VSMEC (59.74%) の著者によるCNNモデルよりも4.66%向上し, ベトナムのソーシャルメディア特性に基づく適切な事前処理技術により, MLR(Multinomial Logistic Regression)が64.40%のF1スコアを達成した。
関連論文リスト
- Leveraging Cross-Attention Transformer and Multi-Feature Fusion for Cross-Linguistic Speech Emotion Recognition [60.58049741496505]
音声感情認識(SER)は、人間とコンピュータの相互作用を強化する上で重要な役割を担っている。
本稿では,HuBERT,MFCC,および韻律特性を組み合わせたHuMP-CATを提案する。
HMP-CATは、ターゲットデータセットから少量の音声でソースモデルを微調整することにより、平均78.75%の精度が得られることを示す。
論文 参考訳(メタデータ) (2025-01-06T14:31:25Z) - Enriching Multimodal Sentiment Analysis through Textual Emotional Descriptions of Visual-Audio Content [56.62027582702816]
マルチモーダル・センティメント・アナリティクスは、テキスト、音声、視覚データを融合することで人間の感情を解き放つことを目指している。
しかし、音声やビデオの表現の中で微妙な感情的なニュアンスを認識することは、恐ろしい挑戦だ。
テキストの感情記述に基づくプログレッシブ・フュージョン・フレームワークであるDEVAを紹介する。
論文 参考訳(メタデータ) (2024-12-12T11:30:41Z) - A study of Vietnamese readability assessing through semantic and statistical features [0.0]
本稿では,テキストの可読性を評価するための統計的および意味的アプローチを統合する新しいアプローチを提案する。
我々の研究はベトナムのテキスト可読性データセット(ViRead)、OneStop English、RASの3つの異なるデータセットを利用した。
SVM(Support Vector Machine)、ランダムフォレスト(Random Forest)、エクストラツリー(Extra Trees)など、さまざまな機械学習モデルを用いて実験を行った。
論文 参考訳(メタデータ) (2024-11-07T14:54:42Z) - GPT as Psychologist? Preliminary Evaluations for GPT-4V on Visual Affective Computing [74.68232970965595]
MLLM(Multimodal large language model)は、テキスト、音声、画像、ビデオなどの複数のソースからの情報を処理し、統合するように設計されている。
本稿では、視覚的情緒的タスクと推論タスクにまたがる5つの重要な能力を持つMLLMの適用性を評価する。
論文 参考訳(メタデータ) (2024-03-09T13:56:25Z) - REDAffectiveLM: Leveraging Affect Enriched Embedding and
Transformer-based Neural Language Model for Readers' Emotion Detection [3.6678641723285446]
本稿では,REDAffectiveLMと呼ばれる深層学習モデルを用いて,短文文書からの読み手感情検出のための新しい手法を提案する。
コンテクストに特化してリッチ表現に影響を与え, リッチBi-LSTM+Attentionに影響を及ぼすタンデムにおいて, トランスフォーマーに基づく事前学習言語モデルを用いることで, リッチ表現に影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-21T19:28:25Z) - Incorporating Emotions into Health Mention Classification Task on Social
Media [70.23889100356091]
情緒的特徴を取り入れた健康言及分類のための枠組みを提案する。
我々は,ソーシャルメディアプラットフォームによる5つのHMC関連データセットに対するアプローチを評価した。
以上の結果から,感情的な知識を取り入れたHMCモデルが有効な選択肢であることが示唆された。
論文 参考訳(メタデータ) (2022-12-09T18:38:41Z) - FAF: A novel multimodal emotion recognition approach integrating face,
body and text [13.485538135494153]
我々は、感情認識作業を容易にするために、大規模マルチモーダル感情データセット「HED」を構築した。
認識の精度を高めるため,重要な感情情報の探索に「特徴アフター・フィーチャー」フレームワークが用いられた。
我々は、"HED"データセットの評価に様々なベンチマークを使用し、その性能を本手法と比較した。
論文 参考訳(メタデータ) (2022-11-20T14:43:36Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - SA2SL: From Aspect-Based Sentiment Analysis to Social Listening System
for Business Intelligence [0.2107969466194361]
本稿では,ベトナムにおけるアスペクトベース感情分析に基づくソーシャルリスニングシステムの構築プロセスについて述べる。
UIT-ViSFDはアスペクトベースの感情分析を評価するためのベンチマークコーパスであり,11,122の人文付コメントをモバイルeコマース向けに作成する。
最後に重要なのは、データセット上で最高のパフォーマンスモデルに基づいたソーシャルリスニングシステムであるSA2SLを構築することです。
論文 参考訳(メタデータ) (2021-05-31T16:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。