論文の概要: Analyzing the Role of Context in Forecasting with Large Language Models
- arxiv url: http://arxiv.org/abs/2501.06496v1
- Date: Sat, 11 Jan 2025 10:11:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:56.997553
- Title: Analyzing the Role of Context in Forecasting with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた予測における文脈の役割の分析
- Authors: Gerrit Mutschlechner, Adam Jatowt,
- Abstract要約: まず,600以上のバイナリ予測質問のデータセットを導入し,関連するニュース記事とその簡潔な質問関連要約を付加した。
次に,入力プロンプトが予測性能に与える影響について検討する。
その結果,ニュース記事の導入により性能が著しく向上し,撮影例が少ないと精度が低下することが示唆された。
- 参考スコア(独自算出の注目度): 17.021220773165016
- License:
- Abstract: This study evaluates the forecasting performance of recent language models (LLMs) on binary forecasting questions. We first introduce a novel dataset of over 600 binary forecasting questions, augmented with related news articles and their concise question-related summaries. We then explore the impact of input prompts with varying level of context on forecasting performance. The results indicate that incorporating news articles significantly improves performance, while using few-shot examples leads to a decline in accuracy. We find that larger models consistently outperform smaller models, highlighting the potential of LLMs in enhancing automated forecasting.
- Abstract(参考訳): 本研究では,近年の言語モデル (LLM) の予測性能を2次予測問題に対して評価する。
まず,600以上のバイナリ予測質問のデータセットを導入し,関連するニュース記事とその簡潔な質問関連要約を付加した。
次に,入力プロンプトが予測性能に与える影響について検討する。
その結果,ニュース記事の導入により性能が著しく向上し,撮影例が少ないと精度が低下することが示唆された。
より大規模なモデルは、より小さなモデルよりも一貫して優れており、自動予測の強化におけるLLMの可能性を強調している。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Future-Guided Learning: A Predictive Approach To Enhance Time-Series Forecasting [4.866362841501992]
本稿では、時系列イベント予測を強化するアプローチであるFuture-Guided Learningを紹介する。
提案手法は,重要な事象を特定するために将来的なデータを解析する検出モデルと,これらの事象を現在のデータに基づいて予測する予測モデルである。
予測モデルと検出モデルの間に不一致が発生した場合、予測モデルはより実質的な更新を行う。
論文 参考訳(メタデータ) (2024-10-19T21:22:55Z) - From News to Forecast: Integrating Event Analysis in LLM-Based Time Series Forecasting with Reflection [16.47323362700347]
本稿では,テキストデータと時系列データの両方を解析することで時系列予測を強化する新しい手法を提案する。
言語を媒体として,社会イベントを予測モデルに適応的に統合し,ニュースコンテンツと時系列のゆらぎを一致させてより豊かな洞察を提供する。
具体的には、LSMをベースとしたエージェントを用いて、無関係なニュースを反復的にフィルタリングし、人間ライクな推論を用いて予測を評価する。
論文 参考訳(メタデータ) (2024-09-26T03:50:22Z) - Rating Multi-Modal Time-Series Forecasting Models (MM-TSFM) for Robustness Through a Causal Lens [10.103561529332184]
ノイズや不正なデータによる不正確さが誤った予測につながるような,マルチモーダルな時系列予測に重点を置いている。
本稿では,マルチモーダル時系列予測モデルのロバスト性を評価するための評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-12T17:39:16Z) - Decoding News Narratives: A Critical Analysis of Large Language Models in Framing Detection [10.301985230669684]
本稿では,ニュース見出しにおけるフレーミングの検出において,GPT-4,GPT-3.5 Turbo,FLAN-T5モデルを包括的に分析する。
我々はこれらのモデルを,ゼロショット,ドメイン内例による少数ショット,クロスドメイン例,モデルが予測を説明する設定など,さまざまなシナリオで評価した。
論文 参考訳(メタデータ) (2024-02-18T15:27:48Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Pathologies of Pre-trained Language Models in Few-shot Fine-tuning [50.3686606679048]
実例が少ない事前学習言語モデルはラベル間に強い予測バイアスを示すことを示す。
わずかな微調整で予測バイアスを軽減できるが,本分析では,非タスク関連の特徴を捉えることで,モデルの性能向上を図っている。
これらの観察は、より少ない例でモデルのパフォーマンスを追求することは、病理学的予測行動を引き起こす可能性があることを警告する。
論文 参考訳(メタデータ) (2022-04-17T15:55:18Z) - Back2Future: Leveraging Backfill Dynamics for Improving Real-time
Predictions in Future [73.03458424369657]
公衆衛生におけるリアルタイム予測では、データ収集は簡単で要求の多いタスクである。
過去の文献では「バックフィル」現象とそのモデル性能への影響についてはほとんど研究されていない。
我々は、与えられたモデルの予測をリアルタイムで洗練することを目的とした、新しい問題とニューラルネットワークフレームワークBack2Futureを定式化する。
論文 参考訳(メタデータ) (2021-06-08T14:48:20Z) - Few-shot learning through contextual data augmentation [74.20290390065475]
機械翻訳モデルは、時間とともに性能を維持するために新しいデータに適応する必要がある。
一つの例から5つの例への適応が可能であることを示す。
本モデルでは,平均313個の並列例でトレーニングした基準システムよりも精度がよいことを示す。
論文 参考訳(メタデータ) (2021-03-31T09:05:43Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。