論文の概要: EmTract: Investor Emotions and Market Behavior
- arxiv url: http://arxiv.org/abs/2112.03868v1
- Date: Tue, 7 Dec 2021 18:01:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-08 15:01:48.524472
- Title: EmTract: Investor Emotions and Market Behavior
- Title(参考訳): EmTract: 投資家の感情と市場行動
- Authors: Domonkos Vamossy and Rolf Skog
- Abstract要約: ソーシャルメディアのテキストデータから感情を抽出するツールを開発した。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a tool that extracts emotions from social media text data. Our
methodology has three main advantages. First, it is tailored for financial
context; second, it incorporates key aspects of social media data, such as
non-standard phrases, emojis and emoticons; and third, it operates by
sequentially learning a latent representation that includes features such as
word order, word usage, and local context. This tool, along with a user guide
is available at: https://github.com/dvamossy/EmTract. Using EmTract, we explore
the relationship between investor emotions expressed on social media and asset
prices. We document a number of interesting insights. First, we confirm some of
the findings of controlled laboratory experiments relating investor emotions to
asset price movements. Second, we show that investor emotions are predictive of
daily price movements. These impacts are larger when volatility or short
interest are higher, and when institutional ownership or liquidity are lower.
Third, increased investor enthusiasm prior to the IPO contributes to the large
first-day return and long-run underperformance of IPO stocks. To corroborate
our results, we provide a number of robustness checks, including using an
alternative emotion model. Our findings reinforce the intuition that emotions
and market dynamics are closely related, and highlight the importance of
considering investor emotions when assessing a stock's short-term value.
- Abstract(参考訳): ソーシャルメディアのテキストデータから感情を抽出するツールを開発した。
私たちの方法論には3つの大きな利点があります。
第2に、非標準のフレーズ、絵文字、エモティコンといったソーシャルメディアデータの重要な側面を取り入れ、第3に、単語の順序、単語の使用、ローカルコンテキストなどの機能を含む潜在表現を逐次学習することで運用する。
このツールとユーザガイドは、https://github.com/dvamossy/emtract.com/で入手できる。
EmTractを用いて、ソーシャルメディア上で表現される投資家の感情と資産価格の関係を検討する。
私たちは多くの興味深い洞察を文書化しています。
まず、投資家の感情と資産価格の動きに関連する実験室の制御実験の結果を確認した。
第二に、投資家の感情が日々の価格変動を予測していることを示す。
これらの影響は、ボラティリティや短期利息が高く、機関所有や流動性が低い場合に大きい。
第3に、IPO前の投資家の熱意の高まりは、IPO株の大規模な初日のリターンと長期の低パフォーマンスに寄与する。
結果の相関をとるために、代替感情モデルの使用を含む、多数の堅牢性チェックを提供する。
我々の研究は、感情と市場のダイナミクスが密接に関連しているという直感を強化し、株式の短期価値を評価する際に投資家の感情を考えることの重要性を強調した。
関連論文リスト
- Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - StockEmotions: Discover Investor Emotions for Financial Sentiment
Analysis and Multivariate Time Series [5.892675412951627]
本稿では、株式市場における感情を検出するための新しいデータセットであるStockEmotionsを紹介する。
これは金融ソーシャルメディアプラットフォームであるStockTwitsから集めた1万件の英語コメントで構成されている。
既存の財務感情データセットとは異なり、StockEmotionsは投資家の感情クラス、きめ細かい感情、絵文字、時系列データなどの細かい特徴を提示する。
論文 参考訳(メタデータ) (2023-01-23T05:32:42Z) - MAFW: A Large-scale, Multi-modal, Compound Affective Database for
Dynamic Facial Expression Recognition in the Wild [56.61912265155151]
大規模複合感情データベースMAFWを提案する。
各クリップには、複雑な感情カテゴリーと、クリップ内の被験者の感情行動を記述する2つの文が注釈付けされている。
複合感情のアノテーションでは、それぞれのクリップは、怒り、嫌悪感、恐怖、幸福、中立、悲しみ、驚き、軽蔑、不安、無力感、失望など、広く使われている11の感情のうちの1つ以上に分類される。
論文 参考訳(メタデータ) (2022-08-01T13:34:33Z) - Social Media Sentiment Analysis for Cryptocurrency Market Prediction [0.0]
我々は、異なる感情指標がBitcoinの価格変動とどのように相関しているかを研究する。
モデルのうちの1つは、他の20以上の公的なモデルよりも優れています。
論文 参考訳(メタデータ) (2022-04-19T03:27:29Z) - Emoji-aware Co-attention Network with EmoGraph2vec Model for Sentiment
Anaylsis [9.447106020795292]
我々はEmoGraph2vecと呼ばれる絵文字表現を学習し、絵文字対応のコアテンションネットワークを設計する手法を提案する。
我々のモデルは、テキストと絵文字を組み込むコアテンション機構を設計し、圧縮と励起ブロックを畳み込みニューラルネットワークに統合する。
実験結果から,提案モデルは,ベンチマークデータセットの感情分析において,いくつかのベースラインを上回り得ることが示された。
論文 参考訳(メタデータ) (2021-10-27T08:01:10Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - Social media emotion macroscopes reflect emotional experiences in
society at large [0.12656629989060433]
ソーシャルメディアは、大規模かつ長期間にわたって人間の行動に関するデータを生成する。
近年の研究では、ソーシャルメディアの感情と個人レベルでの質問票の相関が弱いことが示されている。
社会全体のレベルでの感情の時間的進化を追跡するために、ソーシャルメディアの感情マクロスコープの有効性を検証した研究はない。
論文 参考訳(メタデータ) (2021-07-28T09:40:42Z) - EMOVIE: A Mandarin Emotion Speech Dataset with a Simple Emotional
Text-to-Speech Model [56.75775793011719]
音声ファイルを含む9,724のサンプルとその感情ラベル付きアノテーションを含むマンダリン感情音声データセットを導入,公開する。
入力として追加の参照音声を必要とするこれらのモデルとは異なり、我々のモデルは入力テキストから直接感情ラベルを予測し、感情埋め込みに基づいてより表現力のある音声を生成することができる。
実験段階では、まず感情分類タスクによってデータセットの有効性を検証し、次に提案したデータセットに基づいてモデルをトレーニングし、一連の主観評価を行う。
論文 参考訳(メタデータ) (2021-06-17T08:34:21Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - Modality-Transferable Emotion Embeddings for Low-Resource Multimodal
Emotion Recognition [55.44502358463217]
本稿では、上記の問題に対処するため、感情を埋め込んだモダリティ変換可能なモデルを提案する。
我々のモデルは感情カテゴリーのほとんどで最先端のパフォーマンスを達成する。
私たちのモデルは、目に見えない感情に対するゼロショットと少数ショットのシナリオにおいて、既存のベースラインよりも優れています。
論文 参考訳(メタデータ) (2020-09-21T06:10:39Z) - EmotiCon: Context-Aware Multimodal Emotion Recognition using Frege's
Principle [71.47160118286226]
EmotiConは、ビデオや画像から知覚された人間の感情認識をコンテキスト認識する学習アルゴリズムである。
心理学からフレーゲの文脈原理に動機づけられた我々のアプローチは、感情認識のための文脈の3つの解釈を組み合わせたものである。
平均精度 (AP) スコアは26クラスで35.48であり, 従来の手法よりも7-8の改善が見られた。
論文 参考訳(メタデータ) (2020-03-14T19:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。