論文の概要: EmTract: Extracting Emotions from Social Media
- arxiv url: http://arxiv.org/abs/2112.03868v3
- Date: Wed, 21 Jun 2023 22:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:33:54.560567
- Title: EmTract: Extracting Emotions from Social Media
- Title(参考訳): EmTract:ソーシャルメディアから感情を抽出する
- Authors: Domonkos F. Vamossy and Rolf Skog
- Abstract要約: 本研究では,財務状況に適したソーシャルメディアテキストから感情を抽出するオープンソースツール(EmTract)を開発した。
我々は、感情と市場ダイナミクスが密接に関連していることを示し、金融市場における感情の役割を研究するためのツールを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an open-source tool (EmTract) that extracts emotions from social
media text tailed for financial context. To do so, we annotate ten thousand
short messages from a financial social media platform (StockTwits) and combine
it with open-source emotion data. We then use a pre-tuned NLP model,
DistilBERT, augment its embedding space by including 4,861 tokens (emojis and
emoticons), and then fit it first on the open-source emotion data, then
transfer it to our annotated financial social media data. Our model outperforms
competing open-source state-of-the-art emotion classifiers, such as Emotion
English DistilRoBERTa-base on both human and chatGPT annotated data. Compared
to dictionary based methods, our methodology has three main advantages for
research in finance. First, our model is tailored to financial social media
text; second, it incorporates key aspects of social media data, such as
non-standard phrases, emojis, and emoticons; and third, it operates by
sequentially learning a latent representation that includes features such as
word order, word usage, and local context. Using EmTract, we explore the
relationship between investor emotions expressed on social media and asset
prices. We show that firm-specific investor emotions are predictive of daily
price movements. Our findings show that emotions and market dynamics are
closely related, and we provide a tool to help study the role emotions play in
financial markets.
- Abstract(参考訳): 金融状況に適したソーシャルメディアテキストから感情を抽出するオープンソースツール(emtract)を開発した。
そのために、金融ソーシャルメディアプラットフォーム(StockTwits)から1万の短いメッセージを注釈付けし、それをオープンソースの感情データと組み合わせます。
次に、事前に調整されたNLPモデルであるDistilBERTを使用し、4,861トークン(絵文字とエモティコン)を含む埋め込みスペースを拡張し、まずオープンソースの感情データに適合させ、アノテーション付き金融ソーシャルメディアデータに転送します。
Emotion English DistilRoBERTa-base などのオープンソース感情分類器を人間とチャットGPTのアノテートデータで比較した。
辞書ベースの手法と比較して,金融研究には3つの大きな利点がある。
第一に、我々のモデルは、金融ソーシャルメディアのテキストに合わせたもので、第二に、非標準句、絵文字、エモティコンといったソーシャルメディアデータの重要な側面を取り入れ、第三に、単語順、単語使用、ローカルコンテキストなどの特徴を含む潜在表現を逐次学習することで機能する。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係を検討する。
企業固有の投資家感情が日々の価格変動を予測していることを示す。
その結果、感情と市場のダイナミクスは密接に関連していることを示し、金融市場で感情が果たす役割を研究するためのツールを提供する。
関連論文リスト
- Tracking Emotional Dynamics in Chat Conversations: A Hybrid Approach using DistilBERT and Emoji Sentiment Analysis [0.0]
本稿では,テキストの感情検出と絵文字の感情分析を組み合わせることによって,チャット会話における感情動態を追跡するハイブリッドアプローチについて検討する。
Twitterデータセットは、SVM、Random Forest、AdaBoostなど、さまざまな機械学習アルゴリズムを使用して分析された。
以上の結果から,テキストと絵文字分析の統合は,顧客サービス,ワークチャット,ソーシャルメディアのインタラクションに応用可能なチャット感情の追跡に有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2024-08-03T18:28:31Z) - ConText at WASSA 2024 Empathy and Personality Shared Task: History-Dependent Embedding Utterance Representations for Empathy and Emotion Prediction in Conversations [0.8602553195689513]
WASSAは、相互作用における共感と感情予測に関するタスクを共有しており、これらのタスクに対するアプローチをベンチマークする機会を提供する。
我々は、会話における各発話の共感、感情の極性、感情の強さを、会話の文脈とともに分類される発話をフィードすることによってモデル化する。
また,会話からのすべての発話と,その共感を予測しているインターロケータを識別するトークンを入力して,各インターロケータの相手共感をモデル化する。
論文 参考訳(メタデータ) (2024-07-04T10:44:59Z) - Emotion and Intent Joint Understanding in Multimodal Conversation: A Benchmarking Dataset [74.74686464187474]
Emotion and Intent Joint Understanding in Multimodal Conversation (MC-EIU)は、マルチモーダルな会話履歴に現れる意味情報をデコードすることを目的としている。
MC-EIUは多くのヒューマン・コンピュータ・インタフェースのテクノロジーを実現している。
MC-EIUデータセットは,7つの感情カテゴリー,9つの意図カテゴリ,3つのモダリティ,すなわちテキスト,音響,視覚的内容,および英語とマンダリンの2つの言語を特徴とする。
論文 参考訳(メタデータ) (2024-07-03T01:56:00Z) - Targeted aspect-based emotion analysis to detect opportunities and precaution in financial Twitter messages [8.504685056067144]
同じツイートで、異なる株式市場資産の金銭的感情(肯定的、否定的な予測)を個別に識別できる新たなTABEA(Targeted Aspect-Based Emotion Analysis)システムを提案する。
自然言語処理(NLP)技術と機械学習ストリーミングアルゴリズムに基づいている。
ターゲットの感情、財務的機会、そしてTwitterの予防のために90%以上の精度を達成している。
論文 参考訳(メタデータ) (2024-03-30T16:46:25Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - StockEmotions: Discover Investor Emotions for Financial Sentiment
Analysis and Multivariate Time Series [5.892675412951627]
本稿では、株式市場における感情を検出するための新しいデータセットであるStockEmotionsを紹介する。
これは金融ソーシャルメディアプラットフォームであるStockTwitsから集めた1万件の英語コメントで構成されている。
既存の財務感情データセットとは異なり、StockEmotionsは投資家の感情クラス、きめ細かい感情、絵文字、時系列データなどの細かい特徴を提示する。
論文 参考訳(メタデータ) (2023-01-23T05:32:42Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。