論文の概要: MiMIC: Multi-Modal Indian Earnings Calls Dataset to Predict Stock Prices
- arxiv url: http://arxiv.org/abs/2504.09257v1
- Date: Sat, 12 Apr 2025 15:31:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-15 16:56:03.099277
- Title: MiMIC: Multi-Modal Indian Earnings Calls Dataset to Predict Stock Prices
- Title(参考訳): インド株(終了):MSCI指数、下落-株価予測で
- Authors: Sohom Ghosh, Arnab Maji, Sudip Kumar Naskar,
- Abstract要約: 本研究では,マルチモーダル予測モデルの導入による企業決算の株価への影響について検討する。
決算報告書のテキストデータと付随するプレゼンテーションの画像や表を用いて株価の変動を予測する。
本稿では,定量的変数をテキストおよび視覚的モーダル性から導出した予測信号と統合する多モーダル分析フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.21301560294088315
- License:
- Abstract: Predicting stock market prices following corporate earnings calls remains a significant challenge for investors and researchers alike, requiring innovative approaches that can process diverse information sources. This study investigates the impact of corporate earnings calls on stock prices by introducing a multi-modal predictive model. We leverage textual data from earnings call transcripts, along with images and tables from accompanying presentations, to forecast stock price movements on the trading day immediately following these calls. To facilitate this research, we developed the MiMIC (Multi-Modal Indian Earnings Calls) dataset, encompassing companies representing the Nifty 50, Nifty MidCap 50, and Nifty Small 50 indices. The dataset includes earnings call transcripts, presentations, fundamentals, technical indicators, and subsequent stock prices. We present a multimodal analytical framework that integrates quantitative variables with predictive signals derived from textual and visual modalities, thereby enabling a holistic approach to feature representation and analysis. This multi-modal approach demonstrates the potential for integrating diverse information sources to enhance financial forecasting accuracy. To promote further research in computational economics, we have made the MiMIC dataset publicly available under the CC-NC-SA-4.0 licence. Our work contributes to the growing body of literature on market reactions to corporate communications and highlights the efficacy of multi-modal machine learning techniques in financial analysis.
- Abstract(参考訳): 企業決算発表後の株価の予測は投資家や研究者にとっても大きな課題であり、多様な情報ソースを処理する革新的なアプローチを必要としている。
本研究では,マルチモーダル予測モデルの導入による企業決算の株価への影響について検討する。
決算報告書のテキストデータと付随するプレゼンテーションの画像や表を用いて、これらの電話の直後に取引日の株価変動を予測する。
この研究を促進するために、我々は、ニフティ50、ニフティミッドキャップ50、ニフティスモール50指数を代表する企業を含むMIC(Multi-Modal Indian Earnings Calls)データセットを開発した。
このデータセットには、決算報告書、プレゼンテーション、基礎、技術指標、その後の株価が含まれている。
本稿では,量変数をテキストおよび視覚的モーダル性から導出される予測信号と統合し,特徴表現と解析の全体的アプローチを可能にする多モーダル分析フレームワークを提案する。
このマルチモーダルアプローチは、財務予測精度を高めるために多様な情報ソースを統合する可能性を示している。
計算経済学のさらなる研究を促進するため,我々は,CC-NC-SA-4.0ライセンスの下でMiMICデータセットを一般公開した。
本研究は,企業コミュニケーションに対する市場反応に関する文献の育成に寄与し,財務分析におけるマルチモーダル機械学習技術の有効性を強調した。
関連論文リスト
- Multimodal Stock Price Prediction [0.0]
さまざまなデータソースと機械学習を慎重に統合して、正確な株価予測を行うことがますます重要になっている。
本稿では,従来の財務指標,つぶやき,ニュース記事など,さまざまな情報源のデータを組み合わせて,株価予測のためのマルチモーダル機械学習手法を提案する。
論文 参考訳(メタデータ) (2025-01-23T16:38:46Z) - Next Token Prediction Towards Multimodal Intelligence: A Comprehensive Survey [93.72125112643596]
Next Token Prediction (NTP)は、機械学習タスクの多目的な学習目標である。
本調査では,マルチモーダル学習における理解と生成を一体化する包括的分類法を導入する。
提案した分類法は,マルチモーダルトークン化,MMNTPモデルアーキテクチャ,統合タスク表現,データセットと評価,オープンチャレンジの5つの重要な側面を網羅している。
論文 参考訳(メタデータ) (2024-12-16T05:02:25Z) - Multi-modal Retrieval Augmented Multi-modal Generation: Datasets, Evaluation Metrics and Strong Baselines [64.61315565501681]
M$2$RAG(Multi-modal Retrieval Augmented Multi-modal Generation)は、基礎モデルのマルチモーダルWebコンテンツ処理を可能にする新しいタスクである。
潜在的な影響にもかかわらず、M$2$RAGは、包括的な分析と高品質なデータリソースを欠いている。
論文 参考訳(メタデータ) (2024-11-25T13:20:19Z) - Harnessing Earnings Reports for Stock Predictions: A QLoRA-Enhanced LLM Approach [6.112119533910774]
本稿では、命令ベースの新しい手法と量子化低ランク適応(QLoRA)圧縮を組み合わせることで、LLM(Large Language Models)命令を微調整することで、高度なアプローチを提案する。
近年の市場指標やアナリストの成績等「外部要因」を統合して、リッチで教師付きデータセットを作成する。
この研究は、最先端のAIを微調整された財務データに統合する能力を実証するだけでなく、AI駆動の財務分析ツールを強化するための将来の研究の道を開く。
論文 参考訳(メタデータ) (2024-08-13T04:53:31Z) - A Survey of Large Language Models for Financial Applications: Progress, Prospects and Challenges [60.546677053091685]
大規模言語モデル(LLM)は金融分野における機械学習アプリケーションに新たな機会を開放した。
我々は、従来のプラクティスを変革し、イノベーションを促進する可能性に焦点を当て、様々な金融業務におけるLLMの適用について検討する。
本稿では,既存の文献を言語タスク,感情分析,財務時系列,財務推論,エージェントベースモデリング,その他の応用分野に分類するための調査を紹介する。
論文 参考訳(メタデータ) (2024-06-15T16:11:35Z) - AlphaFin: Benchmarking Financial Analysis with Retrieval-Augmented Stock-Chain Framework [48.3060010653088]
我々はAlphaFinデータセットをリリースし、従来の研究データセット、リアルタイム財務データ、手書きのチェーン・オブ・プリート(CoT)データを組み合わせています。
次に、AlphaFinデータセットを使用して、金融分析タスクを効果的に処理するために、Stock-Chainと呼ばれる最先端の手法をベンチマークします。
論文 参考訳(メタデータ) (2024-03-19T09:45:33Z) - Numerical Claim Detection in Finance: A New Financial Dataset, Weak-Supervision Model, and Market Analysis [4.575870619860645]
ファイナンシャルドメインにおけるクレーム検出タスクのための新たな財務データセットを構築した。
本稿では,対象物の専門家(SME)の知識を集約関数に組み込んだ,新たな弱スーパービジョンモデルを提案する。
ここでは、利益の急落と楽観的な指標への回帰の依存を観察する。
論文 参考訳(メタデータ) (2024-02-18T22:55:26Z) - PIXIU: A Large Language Model, Instruction Data and Evaluation Benchmark
for Finance [63.51545277822702]
PIXIUは、命令データ付き微調整LLaMAに基づく最初の金融大規模言語モデル(LLM)を含む包括的なフレームワークである。
我々はLLaMAを細調整してFinMAを提案する。
我々は、FinMAと既存のLLMを詳細に分析し、重要な財政課題に対処する際の長所と短所を明らかにする。
論文 参考訳(メタデータ) (2023-06-08T14:20:29Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z) - Graph-Based Learning for Stock Movement Prediction with Textual and
Relational Data [0.0]
ストックフォアキャスティングのためのマルチグラフリカレントネットワーク(MGRN)という新しいストックムーブメント予測フレームワークを提案する。
このアーキテクチャは、財務ニュースからのテキストの感情と、他の財務データから抽出された複数の関係情報を組み合わせることができる。
精度テストとSTOXX Europe 600指数の株価のトレーディングシミュレーションを通じて、我々のモデルが他のベンチマークよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-07-22T21:57:18Z) - Towards Earnings Call and Stock Price Movement [7.196468151661785]
本稿では,ディープラーニングフレームワークを用いて,その言語を転写文でモデル化することを提案する。
提案モデルが従来の機械学習ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-23T20:38:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。