論文の概要: RHYTHM: Reasoning with Hierarchical Temporal Tokenization for Human Mobility
- arxiv url: http://arxiv.org/abs/2509.23115v1
- Date: Sat, 27 Sep 2025 04:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.049856
- Title: RHYTHM: Reasoning with Hierarchical Temporal Tokenization for Human Mobility
- Title(参考訳): RHYTHM:人体移動のための階層的時間的トークン化による推論
- Authors: Haoyu He, Haozheng Luo, Yan Chen, Qi R. Wang,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を汎用軌道予測器および推論器として利用する統一フレームワークであるRHYTHMを紹介する。
RHYTHMは時間的トークン化を用いて、各軌跡を日々のセグメントに分割し、階層的な注意を払って個別のトークンとしてエンコードする。
実世界のデータセットを用いた最先端手法に対して,本モデルの評価を行った。
- 参考スコア(独自算出の注目度): 9.200793414310182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting human mobility is inherently challenging due to complex long-range dependencies and multi-scale periodic behaviors. To address this, we introduce RHYTHM (Reasoning with Hierarchical Temporal Tokenization for Human Mobility), a unified framework that leverages large language models (LLMs) as general-purpose spatio-temporal predictors and trajectory reasoners. Methodologically, RHYTHM employs temporal tokenization to partition each trajectory into daily segments and encode them as discrete tokens with hierarchical attention that captures both daily and weekly dependencies, thereby significantly reducing the sequence length while preserving cyclical information. Additionally, we enrich token representations by adding pre-computed prompt embeddings for trajectory segments and prediction targets via a frozen LLM, and feeding these combined embeddings back into the LLM backbone to capture complex interdependencies. Computationally, RHYTHM freezes the pretrained LLM's backbone to reduce attention complexity and memory cost. We evaluate our model against state-of-the-art methods using three real-world datasets. Notably, RHYTHM achieves a 2.4% improvement in overall accuracy, a 5.0% increase on weekends, and a 24.6% reduction in training time. Code is publicly available at https://github.com/he-h/rhythm.
- Abstract(参考訳): 複雑な長距離依存と多スケールの周期的行動のため、人間の移動性を予測することは本質的に困難である。
そこで我々は,大規模言語モデル(LLM)を汎用時空間予測器や軌道推論器として活用する統合フレームワークであるRHYTHM(Reasoning with Hierarchical Temporal Tokenization for Human Mobility)を紹介する。
方法論的には、RHYTHMは時間的トークン化を用いて、各軌跡を日々のセグメントに分割し、それらを階層的な注意で個別のトークンとして符号化し、日々の依存関係と週間の依存関係の両方をキャプチャし、循環情報を保存しながらシーケンス長を著しく減少させる。
さらに,軌道セグメントと予測対象に対する事前に計算されたプロンプト埋め込みを凍結LDMを介して追加し,これらを組み込んだ埋め込みをLLMバックボーンに送り込み,複雑な相互依存性を捉えることでトークン表現を充実させる。
計算によって、RHYTHMは事前訓練されたLLMのバックボーンを凍結し、注意の複雑さとメモリコストを低減させる。
3つの実世界のデータセットを用いて,最先端の手法に対する本モデルの評価を行った。
特にRHYTHMは、全体的な精度が2.4%向上し、週末に5.0%向上し、トレーニング時間が24.6%短縮された。
コードはhttps://github.com/he-h/rhythm.comで公開されている。
関連論文リスト
- Efficient Temporal Tokenization for Mobility Prediction with Large Language Models [7.704947355789259]
RHYTHMは、大きな言語モデル(LLM)を軌道予測子や推論子として利用するフレームワークである。
トークン表現は、凍結LDMによる迅速な埋め込みによって豊かにされ、相互依存を捕捉するモデルの能力を高める。
3つの実世界のデータセットの評価では、最新の手法と比較して精度が2.4%向上し、週末に5.0%向上し、トレーニング時間が24.6%減少している。
論文 参考訳(メタデータ) (2025-07-18T15:31:16Z) - A theoretical framework for self-supervised contrastive learning for continuous dependent data [79.62732169706054]
自己教師付き学習(SSL)は、特にコンピュータビジョンの分野で、表現を学習するための強力なアプローチとして登場した。
本稿では,サンプル間のアンフェマティック独立に適した対照的なSSLの理論的枠組みを提案する。
具体的には、標準のUEAベンチマークとUCRベンチマークでTS2Vecを上回り、それぞれ4.17$%と2.08$%の精度で改善した。
論文 参考訳(メタデータ) (2025-06-11T14:23:47Z) - BRATI: Bidirectional Recurrent Attention for Time-Series Imputation [0.14999444543328289]
時系列分析におけるデータの欠落は、ダウンストリームアプリケーションの信頼性に影響を及ぼす、重大な課題を引き起こす。
本稿では,多変量時系列計算のための新しい深層学習モデルであるBRATIを紹介する。
BRATIは時間的依存を処理し、長い時間的水平線と短い時間的水平線をまたいだ特徴相関を処理し、その逆の時間的方向で動作する2つの計算ブロックを利用する。
論文 参考訳(メタデータ) (2025-01-09T17:50:56Z) - RefreshKV: Updating Small KV Cache During Long-form Generation [54.00118604124301]
生成中の入力トークンのサブセットに対して、完全なコンテキストアテンションとアテンションを柔軟に交互に交互に切り替える新しい推論手法RefreshKVを提案する。
本手法をオフザシェルフ LLM に適用することにより,様々な長文生成タスクの性能を向上しつつ,エビクションベースの手法に匹敵する高速化を実現する。
論文 参考訳(メタデータ) (2024-11-08T18:57:07Z) - Spatial-Temporal-Decoupled Masked Pre-training for Spatiotemporal Forecasting [15.446085872077898]
本研究では,2つの分離されたマスク付きオートエンコーダを用いて,空間次元と時間次元に沿った時系列を再構成する自己教師付き事前学習フレームワークを提案する。
このような再構築を通じて学んだリッチコンテキスト表現は、ダウンストリームによってシームレスに統合され、任意のアーキテクチャでパフォーマンスを向上することができる。
論文 参考訳(メタデータ) (2023-12-01T11:43:49Z) - GATGPT: A Pre-trained Large Language Model with Graph Attention Network
for Spatiotemporal Imputation [19.371155159744934]
実世界の環境では、センサーの故障やデータ転送エラーなどの問題により、そのようなデータには欠落する要素がしばしば含まれる。
時間的計算の目的は、観測された時系列における固有の空間的および時間的関係を理解することによって、これらの欠落値を推定することである。
伝統的に、複雑な時間的計算は特定のアーキテクチャに依存しており、適用可能性の制限と高い計算複雑性に悩まされている。
対照的に、我々のアプローチは、事前訓練された大規模言語モデル(LLM)を複雑な時間的インプットに統合し、画期的なフレームワークであるGATGPTを導入している。
論文 参考訳(メタデータ) (2023-11-24T08:15:11Z) - Temporal Memory Relation Network for Workflow Recognition from Surgical
Video [53.20825496640025]
本研究では, 長期および多スケールの時間パターンを関連づける, エンドツーエンドの時間メモリ関係ネットワーク (TMNet) を提案する。
我々はこのアプローチを2つのベンチマーク手術ビデオデータセットで広範囲に検証した。
論文 参考訳(メタデータ) (2021-03-30T13:20:26Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。