論文の概要: Exploring Deep Neural Networks and Transfer Learning for Analyzing
Emotions in Tweets
- arxiv url: http://arxiv.org/abs/2012.06025v1
- Date: Thu, 10 Dec 2020 23:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-15 07:23:12.822860
- Title: Exploring Deep Neural Networks and Transfer Learning for Analyzing
Emotions in Tweets
- Title(参考訳): ツイートの感情分析のためのディープニューラルネットワークとトランスファー学習の検討
- Authors: Yasas Senarath, Uthayasanker Thayasivam
- Abstract要約: 本稿では,ツイートの感情分析にディープラーニングとトランスファー学習を用いた実験を行う。
本分析では,提案モデルが感情分類の最先端を上回っていることを示す。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present an experiment on using deep learning and transfer
learning techniques for emotion analysis in tweets and suggest a method to
interpret our deep learning models. The proposed approach for emotion analysis
combines a Long Short Term Memory (LSTM) network with a Convolutional Neural
Network (CNN). Then we extend this approach for emotion intensity prediction
using transfer learning technique. Furthermore, we propose a technique to
visualize the importance of each word in a tweet to get a better understanding
of the model. Experimentally, we show in our analysis that the proposed models
outperform the state-of-the-art in emotion classification while maintaining
competitive results in predicting emotion intensity.
- Abstract(参考訳): 本稿では,ツイート中の感情分析に深層学習と伝達学習を用いる実験を行い,深層学習モデルを解釈する方法を提案する。
感情分析のための提案手法は,Long Short Term Memory(LSTM)ネットワークと畳み込みニューラルネットワーク(CNN)を組み合わせたものである。
次に,この手法を伝達学習手法を用いて感情強度予測に拡張する。
さらに,モデルの理解を深めるために,ツイート中の各単語の重要性を可視化する手法を提案する。
実験では,提案モデルが感情の強度を予測するための競争結果を保ちながら,感情分類の最先端を上回っていることを示す。
関連論文リスト
- Emotion Recognition Using Transformers with Masked Learning [7.650385662008779]
本研究では、視覚変換器(ViT)と変換器(Transformer)のモデルを用いて、Valence-Arousal(VA)の推定に焦点をあてる。
このアプローチは、従来の畳み込みニューラルネットワーク(CNN)とLong Short-Term Memory(LSTM)ベースのメソッドを超越し、新しいTransformerベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-19T12:26:53Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Implementation of AI Deep Learning Algorithm For Multi-Modal Sentiment
Analysis [0.9065034043031668]
2チャンネル畳み込みニューラルネットワークとリングネットワークを組み合わせることで,マルチモーダル感情認識手法を確立した。
単語はGloVeでベクトル化され、ワードベクトルは畳み込みニューラルネットワークに入力される。
論文 参考訳(メタデータ) (2023-11-19T05:49:39Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Interpretability for Multimodal Emotion Recognition using Concept
Activation Vectors [0.0]
概念活性化ベクトル(CAV)を用いた感情認識におけるニューラルネットワークの解釈可能性の問題に対処する。
Emotion AI特有の人間理解可能な概念を定義し、広く使われているIEMOCAPマルチモーダルデータベースにマッピングする。
次に,2方向コンテキストLSTM(BC-LSTM)ネットワークの複数の層において,提案する概念の影響を評価する。
論文 参考訳(メタデータ) (2022-02-02T15:02:42Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - Leveraging Recent Advances in Deep Learning for Audio-Visual Emotion
Recognition [2.1485350418225244]
人間の行動分析のために, 自発的なマルチモーダル感情認識が広く研究されている。
視聴覚感情認識のための深層学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-03-16T15:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。