論文の概要: StockEmotions: Discover Investor Emotions for Financial Sentiment
Analysis and Multivariate Time Series
- arxiv url: http://arxiv.org/abs/2301.09279v1
- Date: Mon, 23 Jan 2023 05:32:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 14:12:08.931124
- Title: StockEmotions: Discover Investor Emotions for Financial Sentiment
Analysis and Multivariate Time Series
- Title(参考訳): stockemotions:金融感情分析と多変量時系列のための投資家感情発見
- Authors: Jean Lee, Hoyoul Luis Youn, Josiah Poon, Soyeon Caren Han
- Abstract要約: 本稿では、株式市場における感情を検出するための新しいデータセットであるStockEmotionsを紹介する。
これは金融ソーシャルメディアプラットフォームであるStockTwitsから集めた1万件の英語コメントで構成されている。
既存の財務感情データセットとは異なり、StockEmotionsは投資家の感情クラス、きめ細かい感情、絵文字、時系列データなどの細かい特徴を提示する。
- 参考スコア(独自算出の注目度): 5.892675412951627
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: There has been growing interest in applying NLP techniques in the financial
domain, however, resources are extremely limited. This paper introduces
StockEmotions, a new dataset for detecting emotions in the stock market that
consists of 10,000 English comments collected from StockTwits, a financial
social media platform. Inspired by behavioral finance, it proposes 12
fine-grained emotion classes that span the roller coaster of investor emotion.
Unlike existing financial sentiment datasets, StockEmotions presents granular
features such as investor sentiment classes, fine-grained emotions, emojis, and
time series data. To demonstrate the usability of the dataset, we perform a
dataset analysis and conduct experimental downstream tasks. For financial
sentiment/emotion classification tasks, DistilBERT outperforms other baselines,
and for multivariate time series forecasting, a Temporal Attention LSTM model
combining price index, text, and emotion features achieves the best performance
than using a single feature.
- Abstract(参考訳): 金融分野でのNLP技術の適用に対する関心は高まりつつあるが、資源は極めて限られている。
本稿では、金融ソーシャルメディアプラットフォームであるStockTwitsから収集された1万の英語コメントからなる、市場における感情を検出するための新しいデータセットであるStockEmotionsを紹介する。
行動金融にヒントを得て、投資家の感情のジェットコースターにまたがる12のきめ細かい感情クラスを提案する。
既存の財務感情データセットとは異なり、StockEmotionsは投資家の感情クラス、きめ細かい感情、絵文字、時系列データなどの細かい特徴を提示する。
データセットのユーザビリティを示すために,データセット分析を行い,実験的なダウンストリームタスクを実行する。
金銭的感情・感情分類タスクでは、DistilBERTは他のベースラインよりも優れており、多変量時系列予測では、価格指数、テキスト、感情特徴を組み合わせた時間的注意LSTMモデルが、1つの特徴よりも最高のパフォーマンスを達成する。
関連論文リスト
- MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [54.583741118481605]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Seeking Subjectivity in Visual Emotion Distribution Learning [93.96205258496697]
視覚感情分析(VEA)は、人々の感情を異なる視覚刺激に向けて予測することを目的としている。
既存の手法では、集団投票プロセスにおいて固有の主観性を無視して、統合されたネットワークにおける視覚的感情分布を予測することが多い。
視覚的感情分布の主観性を調べるために,新しいテキストサブジェクティビティ評価ネットワーク(SAMNet)を提案する。
論文 参考訳(メタデータ) (2022-07-25T02:20:03Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - A cross-corpus study on speech emotion recognition [29.582678406878568]
本研究では,行動感情から学習した情報が,自然感情の検出に有用かどうかを検討する。
成人英語の4つのデータセットは、行動的、誘惑的、自然な感情をカバーしている。
性能劣化を正確に調査するための最先端モデルを提案する。
論文 参考訳(メタデータ) (2022-07-05T15:15:22Z) - EmTract: Investor Emotions and Market Behavior [0.0]
ソーシャルメディアのテキストデータから感情を抽出するツールを開発した。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係について検討する。
論文 参考訳(メタデータ) (2021-12-07T18:01:35Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Graph-Based Learning for Stock Movement Prediction with Textual and
Relational Data [0.0]
ストックフォアキャスティングのためのマルチグラフリカレントネットワーク(MGRN)という新しいストックムーブメント予測フレームワークを提案する。
このアーキテクチャは、財務ニュースからのテキストの感情と、他の財務データから抽出された複数の関係情報を組み合わせることができる。
精度テストとSTOXX Europe 600指数の株価のトレーディングシミュレーションを通じて、我々のモデルが他のベンチマークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-07-22T21:57:18Z) - Affect2MM: Affective Analysis of Multimedia Content Using Emotion
Causality [84.69595956853908]
本稿では,マルチメディアコンテンツを対象とした時系列感情予測学習手法であるAffect2MMを提案する。
私たちの目標は、現実の人間中心の状況や行動でキャラクターが描く様々な感情を自動的に捉えることです。
論文 参考訳(メタデータ) (2021-03-11T09:07:25Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - Stock Index Prediction with Multi-task Learning and Word Polarity Over
Time [2.240287188224631]
感情抽出器と要約器からなる2段階システムを提案する。
我々は、ニュースの価値を予測するマルチタスク学習のBERTを採用し、極性-極性(Polarity-Over-Time)という指標を提案して、単語の極性(Polarity)を抽出する。
Weekly-Monday予測フレームワークと10年間のReuters金融ニュースデータセットという新しいデータセットも提案されている。
論文 参考訳(メタデータ) (2020-08-17T20:22:56Z) - K-EmoCon, a multimodal sensor dataset for continuous emotion recognition
in naturalistic conversations [19.350031493515562]
K-EmoConは、自然主義的会話における継続的な感情の包括的なアノテーションを備えた、新しいデータセットである。
データセットには、オーディオ視覚記録、脳波、周辺生理信号を含むマルチモーダル計測が含まれている。
これには、自己、議論パートナー、外部オブザーバーという3つの利用可能な視点からの感情アノテーションが含まれている。
論文 参考訳(メタデータ) (2020-05-08T15:51:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。