論文の概要: JiuTian Chuanliu: A Large Spatiotemporal Model for General-purpose Dynamic Urban Sensing
- arxiv url: http://arxiv.org/abs/2510.23662v1
- Date: Sun, 26 Oct 2025 10:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.326345
- Title: JiuTian Chuanliu: A Large Spatiotemporal Model for General-purpose Dynamic Urban Sensing
- Title(参考訳): JiuTian Chuanliu: 汎用的動的都市センシングのための大規模時空間モデル
- Authors: Liangzhe Han, Leilei Sun, Tongyu Zhu, Tao Tao, Jibin Wang, Weifeng Lv,
- Abstract要約: 本稿では,都市センシングのためのGDHME(General-purpose and Dynamic Human Mobility Embedding)というフレームワークを紹介する。
ステージ1では、GDHMEは人や地域を動的グラフ内のノードとして扱う。
自己回帰型自己教師型タスクは、汎用ノード埋め込みの学習をガイドするために特別に設計されている。
- 参考スコア(独自算出の注目度): 31.475610263075904
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As a window for urban sensing, human mobility contains rich spatiotemporal information that reflects both residents' behavior preferences and the functions of urban areas. The analysis of human mobility has attracted the attention of many researchers. However, existing methods often address specific tasks from a particular perspective, leading to insufficient modeling of human mobility and limited applicability of the learned knowledge in various downstream applications. To address these challenges, this paper proposes to push massive amounts of human mobility data into a spatiotemporal model, discover latent semantics behind mobility behavior and support various urban sensing tasks. Specifically, a large-scale and widely covering human mobility data is collected through the ubiquitous base station system and a framework named General-purpose and Dynamic Human Mobility Embedding (GDHME) for urban sensing is introduced. The framework follows the self-supervised learning idea and contains two major stages. In stage 1, GDHME treats people and regions as nodes within a dynamic graph, unifying human mobility data as people-region-time interactions. An encoder operating in continuous-time dynamically computes evolving node representations, capturing dynamic states for both people and regions. Moreover, an autoregressive self-supervised task is specially designed to guide the learning of the general-purpose node embeddings. In stage 2, these representations are utilized to support various tasks. To evaluate the effectiveness of our GDHME framework, we further construct a multi-task urban sensing benchmark. Offline experiments demonstrate GDHME's ability to automatically learn valuable node features from vast amounts of data. Furthermore, our framework is used to deploy the JiuTian ChuanLiu Big Model, a system that has been presented at the 2023 China Mobile Worldwide Partner Conference.
- Abstract(参考訳): 都市感の窓として、住民の行動嗜好と都市機能の両面を反映した豊かな時空間情報を含んでいる。
人間の移動性の分析は多くの研究者の注目を集めている。
しかし、既存の手法は特定の観点から特定のタスクに対処することが多く、人間のモビリティのモデリングが不十分で、下流の様々なアプリケーションで学習された知識の適用性が限られている。
これらの課題に対処するため,本稿では,大量の人体移動データを時空間モデルにプッシュし,移動行動の背景にある潜在意味を明らかにするとともに,様々な都市センシングタスクを支援することを提案する。
具体的には、ユビキタス基地局システムを通じて、大規模かつ広範囲にわたる人体移動データを収集し、都市センシングのための汎用動的人体移動埋め込み(GDHME)というフレームワークを導入する。
このフレームワークは、自己教師型学習のアイデアに従い、2つの主要なステージを含む。
ステージ1では、GDHMEは人や地域を動的グラフ内のノードとして扱う。
連続時間で動作するエンコーダは、進化するノード表現を動的に計算し、人と地域の両方の動的状態をキャプチャする。
さらに,汎用ノード埋め込みの学習を支援するために,自己回帰型自己監督タスクを特別に設計する。
ステージ2では、これらの表現は様々なタスクをサポートするために使用される。
GDHMEフレームワークの有効性を評価するため,マルチタスク都市センシングベンチマークを構築した。
オフライン実験は、大量のデータから価値あるノード機能を自動的に学習するGDHMEの能力を実証している。
さらに,2023年の中国モバイルワールドワイドパートナー会議で紹介されたシステムであるJuTian ChuanLiu Big Modelの展開にも,我々のフレームワークが使用されている。
関連論文リスト
- HHI-Assist: A Dataset and Benchmark of Human-Human Interaction in Physical Assistance Scenario [63.77482302352545]
HHI-Assist(ヒヒ・アシスト)は、人間の介助作業における人間のインタラクションのモーションキャプチャークリップからなるデータセットである。
私たちの研究は、ロボット支援ポリシーを大幅に強化する可能性がある。
論文 参考訳(メタデータ) (2025-09-12T09:38:17Z) - Identifying and Characterising Higher Order Interactions in Mobility Networks Using Hypergraphs [1.1060425537315088]
本研究では,時間的観測窓を利用したグループ間相互作用抽出モデルであるコビジュエーションハイパーグラフを提案する。
パターンマイニングを頻繁に行うことで,異なる空間的・時間的スケールにわたる動的移動挙動を捉えたハイパーグラフを構築した。
我々のハイパーグラフに基づくモビリティ分析フレームワークは,様々な分野に適用可能なツールとして有用であることを示す。
論文 参考訳(メタデータ) (2025-03-24T11:29:06Z) - OmniRe: Omni Urban Scene Reconstruction [78.99262488964423]
OmniReはデバイス上でのログから動的現実シーンの高忠実なデジタルツインを作成するための総合システムである。
提案手法は3DGS上にシーングラフを構築し,様々な動的アクターをモデル化する標準空間内に複数のガウス表現を構築する。
論文 参考訳(メタデータ) (2024-08-29T17:56:33Z) - Deep Activity Model: A Generative Approach for Human Mobility Pattern Synthesis [11.90100976089832]
我々は,人間の移動性モデリングと合成のための新しい生成的深層学習手法を開発した。
オープンソースのデータを使って、アクティビティパターンとロケーショントラジェクトリの両方を組み込む。
モデルはローカルデータで微調整できるため、さまざまな領域にわたるモビリティパターンを正確に表現することができる。
論文 参考訳(メタデータ) (2024-05-24T02:04:10Z) - Regions are Who Walk Them: a Large Pre-trained Spatiotemporal Model
Based on Human Mobility for Ubiquitous Urban Sensing [24.48869607589127]
本研究では,人体移動データに含まれるリッチな情報を活用するために,トラジェクトリ(RAW)に基づく大規模時空間モデルを提案する。
提案手法は,人間の移動データのみに特色を持たず,ユーザのプロファイリングや地域分析に一定の関連性を示す。
論文 参考訳(メタデータ) (2023-11-17T11:55:11Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Activity-aware Human Mobility Prediction with Hierarchical Graph Attention Recurrent Network [6.09493819953104]
本稿では,HGARN(Hierarchical Graph Attention Recurrent Network)を用いて人体移動予測を行う。
具体的には、過去の移動記録に基づいて階層グラフを構築し、複雑な時間-活動-位置の依存関係をキャプチャするために階層グラフ注意モジュールを使用する。
モデル評価において,HGARNの既存手法に対して,既存手法(例えば,以前に訪れた場所に戻る)と爆発的手法(すなわち,新しい場所を訪れる)の両方で,HGARNの性能を検証した。
論文 参考訳(メタデータ) (2022-10-14T12:56:01Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。