論文の概要: AlphaCast: A Human Wisdom-LLM Intelligence Co-Reasoning Framework for Interactive Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2511.08947v1
- Date: Thu, 13 Nov 2025 01:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.322759
- Title: AlphaCast: A Human Wisdom-LLM Intelligence Co-Reasoning Framework for Interactive Time Series Forecasting
- Title(参考訳): AlphaCast: 対話型時系列予測のための人間のWisdom-LLMインテリジェンス共同推論フレームワーク
- Authors: Xiaohan Zhang, Tian Gao, Mingyue Cheng, Bokai Pan, Ze Guo, Yaguo Liu, Xiaoyu Tao,
- Abstract要約: 時系列予測は、エネルギー、医療、気候といった高い領域において重要な役割を果たす。
そこで我々は,人間知恵大言語モデル(LLM)の知能共推論フレームワークであるAlphaCastを提案する。
- 参考スコア(独自算出の注目度): 25.66021430583999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series forecasting plays a critical role in high-stakes domains such as energy, healthcare, and climate. Although recent advances have improved accuracy, most approaches still treat forecasting as a static one-time mapping task, lacking the interaction, reasoning, and adaptability of human experts. This gap limits their usefulness in complex real-world environments. To address this, we propose AlphaCast, a human wisdom-large language model (LLM) intelligence co-reasoning framework that redefines forecasting as an interactive process. The key idea is to enable step-by-step collaboration between human wisdom and LLM intelligence to jointly prepare, generate, and verify forecasts. The framework consists of two stages: (1) automated prediction preparation, where AlphaCast builds a multi-source cognitive foundation comprising a feature set that captures key statistics and time patterns, a domain knowledge base distilled from corpora and historical series, a contextual repository that stores rich information for each time window, and a case base that retrieves optimal strategies via pattern clustering and matching; and (2) generative reasoning and reflective optimization, where AlphaCast integrates statistical temporal features, prior knowledge, contextual information, and forecasting strategies, triggering a meta-reasoning loop for continuous self-correction and strategy refinement. Extensive experiments on short- and long-term datasets show that AlphaCast consistently outperforms state-of-the-art baselines in predictive accuracy. Code is available at this repository: https://github.com/SkyeGT/AlphaCast_Official .
- Abstract(参考訳): 時系列予測は、エネルギー、医療、気候といった高い領域において重要な役割を果たす。
近年の進歩により精度は向上したが、ほとんどのアプローチは、人間専門家の相互作用、推論、適応性に欠ける静的なワンタイムマッピングタスクとして予測を扱い続けている。
このギャップは、複雑な現実世界環境におけるそれらの有用性を制限する。
そこで我々は,人間知恵大言語モデル (LLM) の協調推論フレームワークであるAlphaCastを提案する。
鍵となるアイデアは、人間の知恵とLLMインテリジェンスとのステップバイステップのコラボレーションによって、予測を共同で準備し、生成し、検証できるようにすることです。
このフレームワークは,(1)AlphaCastが重要な統計・時刻パターンを抽出する機能セットと,コーポラおよび時系列から抽出したドメイン知識ベースと,各時刻ウィンドウに豊富な情報を格納するコンテキストリポジトリと,パターンクラスタリングとマッチングを通じて最適な戦略を検索するケースベースと,(2)AlphaCastが統計的時間的特徴,事前知識,コンテキスト情報,予測戦略を統合し,連続的な自己補正・戦略改善のためのメタ推論ループを起動する生成的推論と反射的最適化の2段階からなる。
短期および長期のデータセットに対する大規模な実験は、AlphaCastが予測精度において最先端のベースラインを一貫して上回っていることを示している。
コードは、このリポジトリで入手できる。
関連論文リスト
- TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - GACL: Graph Attention Collaborative Learning for Temporal QoS Prediction [5.040979636805073]
時間的予測のための新しいグラフ協調学習(GACL)フレームワークを提案する。
動的ユーザサービスグラフ上に構築され、過去のインタラクションを包括的にモデル化する。
WS-DREAMデータセットの実験は、GACLが時間的予測のための最先端の手法を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-20T05:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。