論文の概要: STContext: A Multifaceted Dataset for Developing Context-aware Spatio-temporal Crowd Mobility Prediction Models
- arxiv url: http://arxiv.org/abs/2501.03583v1
- Date: Tue, 07 Jan 2025 07:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:50:24.678466
- Title: STContext: A Multifaceted Dataset for Developing Context-aware Spatio-temporal Crowd Mobility Prediction Models
- Title(参考訳): STContext: コンテキスト対応時空間移動予測モデルを構築するための多面的データセット
- Authors: Liyue Chen, Jiangyi Fang, Tengfei Liu, Fangyuan Gao, Leye Wang,
- Abstract要約: スマートでコンテキスト対応のクラウドフロー予測(STCFP)モデルでは、異常な群衆移動パターンを特定するためにコンテキスト的特徴が使用される。
既存のオープンクラウドフローデータセットには、適切な範囲のコンテキスト機能がない。
コンテキスト対応STCFPモデルを開発するための多面的データセットであるSTContextを作成します。
- 参考スコア(独自算出の注目度): 11.285901497743502
- License:
- Abstract: In smart cities, context-aware spatio-temporal crowd flow prediction (STCFP) models leverage contextual features (e.g., weather) to identify unusual crowd mobility patterns and enhance prediction accuracy. However, the best practice for incorporating contextual features remains unclear due to inconsistent usage of contextual features in different papers. Developing a multifaceted dataset with rich types of contextual features and STCFP scenarios is crucial for establishing a principled context modeling paradigm. Existing open crowd flow datasets lack an adequate range of contextual features, which poses an urgent requirement to build a multifaceted dataset to fill these research gaps. To this end, we create STContext, a multifaceted dataset for developing context-aware STCFP models. Specifically, STContext provides nine spatio-temporal datasets across five STCFP scenarios and includes ten contextual features, including weather, air quality index, holidays, points of interest, road networks, etc. Besides, we propose a unified workflow for incorporating contextual features into deep STCFP methods, with steps including feature transformation, dependency modeling, representation fusion, and training strategies. Through extensive experiments, we have obtained several useful guidelines for effective context modeling and insights for future research. The STContext is open-sourced at https://github.com/Liyue-Chen/STContext.
- Abstract(参考訳): スマートシティでは、コンテキスト対応時空間群集流予測(STCFP)モデルがコンテキスト特徴(天気など)を活用して、異常な群集移動パターンを特定し、予測精度を高める。
しかし,異なる論文における文脈特徴の無矛盾な使用のため,文脈特徴を組み込むためのベストプラクティスはいまだ不明である。
多様なコンテキスト特徴とSTCFPシナリオを備えた多面的データセットの開発は、原則化されたコンテキストモデリングパラダイムを確立する上で不可欠である。
既存のオープンクラウドフローデータセットには、適切な範囲のコンテキスト機能がないため、これらの研究ギャップを埋めるために、複数の顔のデータセットを構築する必要がある。
この目的のために、コンテキスト対応STCFPモデルを開発するための多面的データセットであるSTContextを作成します。
具体的には、STContextは5つのSTCFPシナリオにまたがる9つの時空間データセットを提供する。
さらに、機能変換、依存性モデリング、表現融合、トレーニング戦略を含む深いSTCFPメソッドにコンテキスト機能を組み込む統合ワークフローを提案する。
より広範な実験を通じて,研究に有効なコンテキストモデリングと洞察のためのいくつかの有用なガイドラインが得られた。
STContextはhttps://github.com/Liyue-Chen/STContextでオープンソース化されている。
関連論文リスト
- Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト・イズ・キー (Context is Key) (CiK) は、時系列予測ベンチマークであり、様々な種類のテキストコンテキストと数値データをペアリングする。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
実験では、文脈情報の導入の重要性を強調し、LLMに基づく予測モデルを用いた場合の驚くべき性能を示すとともに、それらの重要な欠点を明らかにした。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Context Matters: Leveraging Contextual Features for Time Series Forecasting [2.9687381456164004]
既存の予測モデルにマルチモーダルなコンテキスト情報を外科的に統合する新しいプラグイン・アンド・プレイ手法であるContextFormerを導入する。
ContextFormerは、カテゴリ、連続、時間変化、さらにはテキスト情報を含む、リッチなマルチモーダルコンテキストから予測固有の情報を効果的に蒸留する。
エネルギー、交通、環境、金融ドメインにまたがるさまざまな実世界のデータセットにおいて、SOTA予測モデルを最大30%上回ります。
論文 参考訳(メタデータ) (2024-10-16T15:36:13Z) - Towards Effective Fusion and Forecasting of Multimodal Spatio-temporal Data for Smart Mobility [3.8461644439720075]
ディープラーニングベースの手法は、スマートモビリティやスマートシティ、その他のインテリジェント交通システムといった分野において、下流タスクをサポートするために相関関係を学習する。
その効果にもかかわらず、STデータ融合と予測手法は現実のシナリオにおいて実践的な課題に直面している。
本稿では,現実の様々な応用の課題を探求する最近の研究を紹介するとともに,今後の研究分野におけるオープンな課題の確立について述べる。
論文 参考訳(メタデータ) (2024-07-23T02:08:22Z) - CELA: Cost-Efficient Language Model Alignment for CTR Prediction [70.65910069412944]
CTR(Click-Through Rate)予測は、レコメンダシステムにおいて最重要位置を占める。
最近の取り組みは、プレトレーニング言語モデル(PLM)を統合することでこれらの課題を緩和しようとしている。
CTR予測のためのtextbfCost-textbfEfficient textbfLanguage Model textbfAlignment (textbfCELA)を提案する。
論文 参考訳(メタデータ) (2024-05-17T07:43:25Z) - Deja vu: Contrastive Historical Modeling with Prefix-tuning for Temporal Knowledge Graph Reasoning [16.408149489677154]
ChapTERは、テンポラル推論のためのプレフィックスチューニングを備えたコントラスト歴史モデリングフレームワークである。
我々は4つのトランスダクティブと3つの数ショットインダクティブTKGRベンチマークでChapTERを評価した。
論文 参考訳(メタデータ) (2024-03-25T17:25:40Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - Information Screening whilst Exploiting! Multimodal Relation Extraction
with Feature Denoising and Multimodal Topic Modeling [96.75821232222201]
既存のマルチモーダル関係抽出(MRE)研究は、内部情報過剰利用と外部情報過多という2つの共存課題に直面している。
内部情報スクリーニングと外部情報活用を同時に実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:57Z) - LocVTP: Video-Text Pre-training for Temporal Localization [71.74284893790092]
Video-Text Pre-trainingは、大規模なWebビデオからさまざまな下流タスクの転送可能な表現を学ぶことを目的としている。
本稿では,現在のVTP手法とローカライズタスクの非互換性を実験的に解析し,実証する。
ローカライズ指向のビデオテキスト事前学習フレームワークであるLocVTPを提案する。
論文 参考訳(メタデータ) (2022-07-21T08:43:51Z) - Support-set based Multi-modal Representation Enhancement for Video
Captioning [121.70886789958799]
サンプル間で共有されるセマンティックサブ空間において、リッチな情報をマイニングするためのサポートセットベースのマルチモーダル表現拡張(SMRE)モデルを提案する。
具体的には、サンプル間の基礎となる関係を学習し、意味的関連視覚要素を得るためのサポートセットを構築するためのサポートセット構築(SC)モジュールを提案する。
本研究では,SST(Semantic Space Transformation)モジュールを設計し,相対距離を制約し,マルチモーダルインタラクションを自己管理的に管理する。
論文 参考訳(メタデータ) (2022-05-19T03:40:29Z) - Exploring Context Generalizability in Citywide Crowd Mobility Prediction: An Analytic Framework and Benchmark [8.32409186492201]
本稿では,コンテキストの一般化性を評価するための統合分析フレームワークと大規模ベンチマークを提案する。
我々は,自転車の走行,地下鉄の乗客流,電気自動車の充電需要といった,群衆の移動予測タスクで実験を行った。
より多くのコンテキスト機能を使用すると、既存のコンテキストモデリング技術で予測がより良くなるとは限らない。
文脈モデリング手法では、ゲート単位を用いて生の文脈特徴を深部予測モデルに組み込むことで、優れた一般化性が得られる。
論文 参考訳(メタデータ) (2021-06-30T13:19:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。