論文の概要: EmTract: Extracting Emotions from Social Media
- arxiv url: http://arxiv.org/abs/2112.03868v3
- Date: Wed, 21 Jun 2023 22:48:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 18:33:54.560567
- Title: EmTract: Extracting Emotions from Social Media
- Title(参考訳): EmTract:ソーシャルメディアから感情を抽出する
- Authors: Domonkos F. Vamossy and Rolf Skog
- Abstract要約: 本研究では,財務状況に適したソーシャルメディアテキストから感情を抽出するオープンソースツール(EmTract)を開発した。
我々は、感情と市場ダイナミクスが密接に関連していることを示し、金融市場における感情の役割を研究するためのツールを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop an open-source tool (EmTract) that extracts emotions from social
media text tailed for financial context. To do so, we annotate ten thousand
short messages from a financial social media platform (StockTwits) and combine
it with open-source emotion data. We then use a pre-tuned NLP model,
DistilBERT, augment its embedding space by including 4,861 tokens (emojis and
emoticons), and then fit it first on the open-source emotion data, then
transfer it to our annotated financial social media data. Our model outperforms
competing open-source state-of-the-art emotion classifiers, such as Emotion
English DistilRoBERTa-base on both human and chatGPT annotated data. Compared
to dictionary based methods, our methodology has three main advantages for
research in finance. First, our model is tailored to financial social media
text; second, it incorporates key aspects of social media data, such as
non-standard phrases, emojis, and emoticons; and third, it operates by
sequentially learning a latent representation that includes features such as
word order, word usage, and local context. Using EmTract, we explore the
relationship between investor emotions expressed on social media and asset
prices. We show that firm-specific investor emotions are predictive of daily
price movements. Our findings show that emotions and market dynamics are
closely related, and we provide a tool to help study the role emotions play in
financial markets.
- Abstract(参考訳): 金融状況に適したソーシャルメディアテキストから感情を抽出するオープンソースツール(emtract)を開発した。
そのために、金融ソーシャルメディアプラットフォーム(StockTwits)から1万の短いメッセージを注釈付けし、それをオープンソースの感情データと組み合わせます。
次に、事前に調整されたNLPモデルであるDistilBERTを使用し、4,861トークン(絵文字とエモティコン)を含む埋め込みスペースを拡張し、まずオープンソースの感情データに適合させ、アノテーション付き金融ソーシャルメディアデータに転送します。
Emotion English DistilRoBERTa-base などのオープンソース感情分類器を人間とチャットGPTのアノテートデータで比較した。
辞書ベースの手法と比較して,金融研究には3つの大きな利点がある。
第一に、我々のモデルは、金融ソーシャルメディアのテキストに合わせたもので、第二に、非標準句、絵文字、エモティコンといったソーシャルメディアデータの重要な側面を取り入れ、第三に、単語順、単語使用、ローカルコンテキストなどの特徴を含む潜在表現を逐次学習することで機能する。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係を検討する。
企業固有の投資家感情が日々の価格変動を予測していることを示す。
その結果、感情と市場のダイナミクスは密接に関連していることを示し、金融市場で感情が果たす役割を研究するためのツールを提供する。
関連論文リスト
- Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - StockEmotions: Discover Investor Emotions for Financial Sentiment
Analysis and Multivariate Time Series [5.892675412951627]
本稿では、株式市場における感情を検出するための新しいデータセットであるStockEmotionsを紹介する。
これは金融ソーシャルメディアプラットフォームであるStockTwitsから集めた1万件の英語コメントで構成されている。
既存の財務感情データセットとは異なり、StockEmotionsは投資家の感情クラス、きめ細かい感情、絵文字、時系列データなどの細かい特徴を提示する。
論文 参考訳(メタデータ) (2023-01-23T05:32:42Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Social Media Sentiment Analysis for Cryptocurrency Market Prediction [0.0]
我々は、異なる感情指標がBitcoinの価格変動とどのように相関しているかを研究する。
モデルのうちの1つは、他の20以上の公的なモデルよりも優れています。
論文 参考訳(メタデータ) (2022-04-19T03:27:29Z) - Emoji-aware Co-attention Network with EmoGraph2vec Model for Sentiment
Anaylsis [9.447106020795292]
我々はEmoGraph2vecと呼ばれる絵文字表現を学習し、絵文字対応のコアテンションネットワークを設計する手法を提案する。
我々のモデルは、テキストと絵文字を組み込むコアテンション機構を設計し、圧縮と励起ブロックを畳み込みニューラルネットワークに統合する。
実験結果から,提案モデルは,ベンチマークデータセットの感情分析において,いくつかのベースラインを上回り得ることが示された。
論文 参考訳(メタデータ) (2021-10-27T08:01:10Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Social media emotion macroscopes reflect emotional experiences in
society at large [0.12656629989060433]
ソーシャルメディアは、大規模かつ長期間にわたって人間の行動に関するデータを生成する。
近年の研究では、ソーシャルメディアの感情と個人レベルでの質問票の相関が弱いことが示されている。
社会全体のレベルでの感情の時間的進化を追跡するために、ソーシャルメディアの感情マクロスコープの有効性を検証した研究はない。
論文 参考訳(メタデータ) (2021-07-28T09:40:42Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。