論文の概要: LLM-Powered CPI Prediction Inference with Online Text Time Series
- arxiv url: http://arxiv.org/abs/2506.09516v1
- Date: Wed, 11 Jun 2025 08:41:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.768975
- Title: LLM-Powered CPI Prediction Inference with Online Text Time Series
- Title(参考訳): オンラインテキスト時系列を用いたLCMを用いたCPI予測
- Authors: Yingying Fan, Jinchi Lv, Ao Sun, Yurou Wang,
- Abstract要約: 本稿では,オンラインテキスト時系列を取り入れたLCMによるCPI予測手法を提案する。
広く使われている中国のソーシャルネットワークサイトから、大量の高周波オンラインテキストを収集する。
我々は,月毎のCPIデータとLLM生成日毎のCPIサロゲートを組み合わせた時系列フレームワークを開発した。
- 参考スコア(独自算出の注目度): 4.988565264368601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forecasting the Consumer Price Index (CPI) is an important yet challenging task in economics, where most existing approaches rely on low-frequency, survey-based data. With the recent advances of large language models (LLMs), there is growing potential to leverage high-frequency online text data for improved CPI prediction, an area still largely unexplored. This paper proposes LLM-CPI, an LLM-based approach for CPI prediction inference incorporating online text time series. We collect a large set of high-frequency online texts from a popularly used Chinese social network site and employ LLMs such as ChatGPT and the trained BERT models to construct continuous inflation labels for posts that are related to inflation. Online text embeddings are extracted via LDA and BERT. We develop a joint time series framework that combines monthly CPI data with LLM-generated daily CPI surrogates. The monthly model employs an ARX structure combining observed CPI data with text embeddings and macroeconomic variables, while the daily model uses a VARX structure built on LLM-generated CPI surrogates and text embeddings. We establish the asymptotic properties of the method and provide two forms of constructed prediction intervals. The finite-sample performance and practical advantages of LLM-CPI are demonstrated through both simulation and real data examples.
- Abstract(参考訳): 消費者物価指数(CPI)の予測は経済において重要な課題であり、既存のほとんどのアプローチは低周波のサーベイベースデータに依存している。
近年の大規模言語モデル(LLM)の進歩により、CPI予測の改善に高頻度のオンラインテキストデータを活用する可能性が高まっている。
本稿では,オンラインテキスト時系列を組み込んだCPI予測手法であるLLM-CPIを提案する。
広く使われている中国のソーシャルネットワークサイトから大量の高周波オンラインテキストを収集し,ChatGPTやトレーニングされたBERTモデルなどのLCMを用いて,インフレーションに関連するポストに対して連続的なインフレーションラベルを構築する。
オンラインテキスト埋め込みは、LDAとBERTを介して抽出される。
我々は,月毎のCPIデータとLLM生成日毎のCPIサロゲートを組み合わせた時系列フレームワークを開発した。
月次モデルは、観測されたCPIデータとテキスト埋め込みとマクロ経済変数を組み合わせたARX構造を使用し、日次モデルは、LLM生成したCPIサロゲートとテキスト埋め込みに基づいて構築されたVARX構造を使用する。
提案手法の漸近特性を確立し,2種類の構成予測区間を提供する。
LLM-CPIの有限サンプル性能と実用的優位性はシミュレーションと実データの両方を用いて実証された。
関連論文リスト
- TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Federated In-Context LLM Agent Learning [3.4757641432843487]
大規模言語モデル(LLM)は、論理的推論、ツールの使用、エージェントとしての外部システムとの相互作用を可能にすることによって、インテリジェントなサービスに革命をもたらした。
本稿では,プライバシ保護型フェデレーション・イン・コンテクスト LLM Agent Learning (FICAL) アルゴリズムを提案する。
その結果、FICALは、他のSOTAベースラインと比較して競争性能が優れており、通信コストの大幅な削減は、$mathbf3.33times105$倍であることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:00:24Z) - Enhancing LLMs with Smart Preprocessing for EHR Analysis [3.5839042822277585]
大規模言語モデル (LLM) は自然言語処理において顕著な熟練性を示している。
本稿では,厳密なプライバシ要件を持つ環境におけるローカルデプロイメントに最適化されたコンパクトなLLMフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-03T22:06:55Z) - HARMONIC: Harnessing LLMs for Tabular Data Synthesis and Privacy Protection [44.225151701532454]
本稿では,表データ生成と評価のための新しいフレームワークHARMONICを提案する。
本フレームワークは, 既存の手法と同等の性能を向上し, また, 合成データの有効性とプライバシーリスクを評価するための評価枠組みを実証する。
論文 参考訳(メタデータ) (2024-08-06T03:21:13Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。