論文の概要: EmTract: Investor Emotions and Market Behavior
- arxiv url: http://arxiv.org/abs/2112.03868v1
- Date: Tue, 7 Dec 2021 18:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:01:48.524472
- Title: EmTract: Investor Emotions and Market Behavior
- Title(参考訳): EmTract: 投資家の感情と市場行動
- Authors: Domonkos Vamossy and Rolf Skog
- Abstract要約: ソーシャルメディアのテキストデータから感情を抽出するツールを開発した。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a tool that extracts emotions from social media text data. Our
methodology has three main advantages. First, it is tailored for financial
context; second, it incorporates key aspects of social media data, such as
non-standard phrases, emojis and emoticons; and third, it operates by
sequentially learning a latent representation that includes features such as
word order, word usage, and local context. This tool, along with a user guide
is available at: https://github.com/dvamossy/EmTract. Using EmTract, we explore
the relationship between investor emotions expressed on social media and asset
prices. We document a number of interesting insights. First, we confirm some of
the findings of controlled laboratory experiments relating investor emotions to
asset price movements. Second, we show that investor emotions are predictive of
daily price movements. These impacts are larger when volatility or short
interest are higher, and when institutional ownership or liquidity are lower.
Third, increased investor enthusiasm prior to the IPO contributes to the large
first-day return and long-run underperformance of IPO stocks. To corroborate
our results, we provide a number of robustness checks, including using an
alternative emotion model. Our findings reinforce the intuition that emotions
and market dynamics are closely related, and highlight the importance of
considering investor emotions when assessing a stock's short-term value.
- Abstract(参考訳): ソーシャルメディアのテキストデータから感情を抽出するツールを開発した。
私たちの方法論には3つの大きな利点があります。
第2に、非標準のフレーズ、絵文字、エモティコンといったソーシャルメディアデータの重要な側面を取り入れ、第3に、単語の順序、単語の使用、ローカルコンテキストなどの機能を含む潜在表現を逐次学習することで運用する。
このツールとユーザガイドは、https://github.com/dvamossy/emtract.com/で入手できる。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係を検討する。
私たちは多くの興味深い洞察を文書化しています。
まず、投資家の感情と資産価格の動きに関連する実験室の制御実験の結果を確認した。
第二に、投資家の感情が日々の価格変動を予測していることを示す。
これらの影響は、ボラティリティや短期利息が高く、機関所有や流動性が低い場合に大きい。
第3に、IPO前の投資家の熱意の高まりは、IPO株の大規模な初日のリターンと長期の低パフォーマンスに寄与する。
結果の相関をとるために、代替感情モデルの使用を含む、多数の堅牢性チェックを提供する。
我々の研究は、感情と市場のダイナミクスが密接に関連しているという直感を強化し、株式の短期価値を評価する際に投資家の感情を考えることの重要性を強調した。
関連論文リスト
- Tracking Emotional Dynamics in Chat Conversations: A Hybrid Approach using DistilBERT and Emoji Sentiment Analysis [0.0]
本稿では,テキストの感情検出と絵文字の感情分析を組み合わせることによって,チャット会話における感情動態を追跡するハイブリッドアプローチについて検討する。
Twitterデータセットは、SVM、Random Forest、AdaBoostなど、さまざまな機械学習アルゴリズムを使用して分析された。
以上の結果から,テキストと絵文字分析の統合は,顧客サービス,ワークチャット,ソーシャルメディアのインタラクションに応用可能なチャット感情の追跡に有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2024-08-03T18:28:31Z) - ConText at WASSA 2024 Empathy and Personality Shared Task: History-Dependent Embedding Utterance Representations for Empathy and Emotion Prediction in Conversations [0.8602553195689513]
WASSAは、相互作用における共感と感情予測に関するタスクを共有しており、これらのタスクに対するアプローチをベンチマークする機会を提供する。
我々は、会話における各発話の共感、感情の極性、感情の強さを、会話の文脈とともに分類される発話をフィードすることによってモデル化する。
また,会話からのすべての発話と,その共感を予測しているインターロケータを識別するトークンを入力して,各インターロケータの相手共感をモデル化する。
論文 参考訳(メタデータ) (2024-07-04T10:44:59Z) - Emotion and Intent Joint Understanding in Multimodal Conversation: A Benchmarking Dataset [74.74686464187474]
Emotion and Intent Joint Understanding in Multimodal Conversation (MC-EIU)は、マルチモーダルな会話履歴に現れる意味情報をデコードすることを目的としている。
MC-EIUは多くのヒューマン・コンピュータ・インタフェースのテクノロジーを実現している。
MC-EIUデータセットは,7つの感情カテゴリー,9つの意図カテゴリ,3つのモダリティ,すなわちテキスト,音響,視覚的内容,および英語とマンダリンの2つの言語を特徴とする。
論文 参考訳(メタデータ) (2024-07-03T01:56:00Z) - Targeted aspect-based emotion analysis to detect opportunities and precaution in financial Twitter messages [8.504685056067144]
同じツイートで、異なる株式市場資産の金銭的感情(肯定的、否定的な予測)を個別に識別できる新たなTABEA(Targeted Aspect-Based Emotion Analysis)システムを提案する。
自然言語処理(NLP)技術と機械学習ストリーミングアルゴリズムに基づいている。
ターゲットの感情、財務的機会、そしてTwitterの予防のために90%以上の精度を達成している。
論文 参考訳(メタデータ) (2024-03-30T16:46:25Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - StockEmotions: Discover Investor Emotions for Financial Sentiment
Analysis and Multivariate Time Series [5.892675412951627]
本稿では、株式市場における感情を検出するための新しいデータセットであるStockEmotionsを紹介する。
これは金融ソーシャルメディアプラットフォームであるStockTwitsから集めた1万件の英語コメントで構成されている。
既存の財務感情データセットとは異なり、StockEmotionsは投資家の感情クラス、きめ細かい感情、絵文字、時系列データなどの細かい特徴を提示する。
論文 参考訳(メタデータ) (2023-01-23T05:32:42Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。