論文の概要: TimeHF: Billion-Scale Time Series Models Guided by Human Feedback
- arxiv url: http://arxiv.org/abs/2501.15942v1
- Date: Mon, 27 Jan 2025 10:40:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:55:19.874717
- Title: TimeHF: Billion-Scale Time Series Models Guided by Human Feedback
- Title(参考訳): タイムHF:人間のフィードバックで導かれた数十億ドル規模の時系列モデル
- Authors: Yongzhi Qi, Hao Hu, Dazhou Lei, Jianshen Zhang, Zhengxin Shi, Yulin Huang, Zhengyu Chen, Xiaoming Lin, Zuo-Jun Max Shen,
- Abstract要約: 時系列ニューラルネットワークは、現実世界のアプリケーションでは極めてよく機能するが、スケーラビリティの制限、一般化の低さ、準最適ゼロショット性能といった課題に直面する。
我々は、60億のパラメータを持つLTMを作成するための新しいパイプラインであるTimeHFを紹介し、人間のフィードバックを取り入れた。
TimeHFは20,000以上の製品の自動補充を処理し、予測精度を33.21%向上させた。
- 参考スコア(独自算出の注目度): 8.781084167236775
- License:
- Abstract: Time series neural networks perform exceptionally well in real-world applications but encounter challenges such as limited scalability, poor generalization, and suboptimal zero-shot performance. Inspired by large language models, there is interest in developing large time series models (LTM) to address these issues. However, current methods struggle with training complexity, adapting human feedback, and achieving high predictive accuracy. We introduce TimeHF, a novel pipeline for creating LTMs with 6 billion parameters, incorporating human feedback. We use patch convolutional embedding to capture long time series information and design a human feedback mechanism called time-series policy optimization. Deployed in JD.com's supply chain, TimeHF handles automated replenishment for over 20,000 products, improving prediction accuracy by 33.21% over existing methods. This work advances LTM technology and shows significant industrial benefits.
- Abstract(参考訳): 時系列ニューラルネットワークは、現実世界のアプリケーションでは極めてよく機能するが、スケーラビリティの制限、一般化の低さ、準最適ゼロショット性能といった課題に直面する。
大規模言語モデルに触発されて、これらの問題に対処する大規模時系列モデル(LTM)の開発に関心がある。
しかし、現在の手法は、トレーニングの複雑さに悩まされ、人間のフィードバックに適応し、高い予測精度を達成する。
我々は、60億のパラメータを持つLTMを作成するための新しいパイプラインであるTimeHFを紹介し、人間のフィードバックを取り入れた。
我々は、パッチ畳み込み埋め込みを用いて、時系列情報をキャプチャし、時系列ポリシー最適化と呼ばれる人間のフィードバックメカニズムを設計する。
JD.comのサプライチェーンに配備されたTimeHFは、20,000以上の製品の自動補充を処理し、既存の方法よりも33.21%精度が向上した。
この研究はLTM技術の進歩と工業的利益を示す。
関連論文リスト
- Recurrent Neural Goodness-of-Fit Test for Time Series [8.22915954499148]
時系列データは、金融や医療など、さまざまな分野において重要である。
従来の評価基準は、時間的依存関係と潜在的な特徴の高次元性のために不足している。
Recurrent Neural (RENAL) Goodness-of-Fit testは,生成時系列モデルを評価するための新しい,統計的に厳密なフレームワークである。
論文 参考訳(メタデータ) (2024-10-17T19:32:25Z) - Time-MoE: Billion-Scale Time Series Foundation Models with Mixture of Experts [25.503695417712997]
Time-MoEは、より大きく、より有能な基礎モデルを予測するために設計された、スケーラブルで統一されたアーキテクチャである。
Time-MoEは、予測毎にネットワークのサブセットだけを活性化することで、計算効率を向上させる。
時系列基礎モデルを24億のパラメータに拡張し,予測精度を大幅に向上させた。
論文 参考訳(メタデータ) (2024-09-24T12:42:18Z) - TimeLDM: Latent Diffusion Model for Unconditional Time Series Generation [2.4454605633840143]
時系列生成は意思決定システムにおいて重要な研究課題である。
最近のアプローチでは、時系列情報をモデル化するために、データ空間での学習に焦点を当てている。
高品質な時系列生成のための新しい遅延拡散モデルであるTimeLDMを提案する。
論文 参考訳(メタデータ) (2024-07-05T01:47:20Z) - TimeSieve: Extracting Temporal Dynamics through Information Bottlenecks [31.10683149519954]
本稿では,時系列予測モデルTimeSieveを提案する。
提案手法では、ウェーブレット変換を用いて時系列データを前処理し、マルチスケールの特徴を効果的にキャプチャする。
本研究は,時系列予測における課題に対処するためのアプローチの有効性を検証した。
論文 参考訳(メタデータ) (2024-06-07T15:58:12Z) - Time Series Representation Models [2.724184832774005]
時系列解析は、そのスパース特性、高次元性、一貫性のないデータ品質のため、依然として大きな課題である。
近年のトランス技術の発展により,予測や計算能力が向上している。
イントロスペクションに基づく時系列解析のための新しいアーキテクチャ概念を提案する。
論文 参考訳(メタデータ) (2024-05-28T13:25:31Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Rethinking Urban Mobility Prediction: A Super-Multivariate Time Series
Forecasting Approach [71.67506068703314]
長期の都市移動予測は、都市施設やサービスの効果的管理において重要な役割を担っている。
伝統的に、都市移動データはビデオとして構成され、経度と緯度を基本的なピクセルとして扱う。
本研究では,都市におけるモビリティ予測の新たな視点について紹介する。
都市移動データを従来のビデオデータとして単純化するのではなく、複雑な時系列と見なす。
論文 参考訳(メタデータ) (2023-12-04T07:39:05Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Online Evolutionary Neural Architecture Search for Multivariate
Non-Stationary Time Series Forecasting [72.89994745876086]
本研究は、オンラインニューロ進化に基づくニューラルアーキテクチャサーチ(ONE-NAS)アルゴリズムを提案する。
ONE-NASは、オンライン予測タスクのためにリカレントニューラルネットワーク(RNN)を自動設計し、動的にトレーニングする新しいニューラルネットワーク探索手法である。
その結果、ONE-NASは従来の統計時系列予測法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-20T22:25:47Z) - Learning to Efficiently Sample from Diffusion Probabilistic Models [49.58748345998702]
Denoising Diffusion Probabilistic Models (DDPM) は、様々な領域にわたる高忠実度サンプルと競合する対数類似度が得られる。
我々は,事前学習したDDPMに対して最適な離散時間スケジュールを求める,正確な動的プログラミングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T17:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。