論文の概要: Breaking Data Silos: Towards Open and Scalable Mobility Foundation Models via Generative Continual Learning
- arxiv url: http://arxiv.org/abs/2506.06694v1
- Date: Sat, 07 Jun 2025 07:19:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.436471
- Title: Breaking Data Silos: Towards Open and Scalable Mobility Foundation Models via Generative Continual Learning
- Title(参考訳): データのサイロを破る - 生成的連続学習を通じて、オープンかつスケーラブルなモビリティ基盤モデルを目指す
- Authors: Yuan Yuan, Yukun Liu, Chonghua Han, Jie Feng, Yong Li,
- Abstract要約: 我々はモビリティ基盤モデルのトレーニングのためのスケーラブルでプライバシ保護のフレームワークであるMoveGCLを提案する。
MoveGCLは、凍結教師モデルから生成された合成軌跡を再生することにより、分散モデルと進行モデルの進化を可能にする。
6つの実世界の都市データセットの実験は、MoveGCLがジョイントトレーニングに匹敵するパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 8.669625027475366
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models have revolutionized fields such as natural language processing and computer vision by enabling general-purpose learning across diverse tasks and datasets. However, building analogous models for human mobility remains challenging due to the privacy-sensitive nature of mobility data and the resulting data silos across institutions. To bridge this gap, we propose MoveGCL, a scalable and privacy-preserving framework for training mobility foundation models via generative continual learning. Without sharing raw data, MoveGCL enables decentralized and progressive model evolution by replaying synthetic trajectories generated from a frozen teacher model, and reinforces knowledge retention through a tailored distillation strategy that mitigates catastrophic forgetting. To address the heterogeneity of mobility patterns, MoveGCL incorporates a Mixture-of-Experts Transformer with a mobility-aware expert routing mechanism, and employs a layer-wise progressive adaptation strategy to stabilize continual updates. Experiments on six real-world urban datasets demonstrate that MoveGCL achieves performance comparable to joint training and significantly outperforms federated learning baselines, while offering strong privacy protection. MoveGCL marks a crucial step toward unlocking foundation models for mobility, offering a practical blueprint for open, scalable, and privacy-preserving model development in the era of foundation models.
- Abstract(参考訳): ファンデーションモデルは、さまざまなタスクやデータセットにわたる汎用的な学習を可能にすることによって、自然言語処理やコンピュータビジョンといった分野に革命をもたらした。
しかし、人間の移動性のための類似モデルの構築は、モビリティデータのプライバシーに敏感な性質と、機関間のデータサイロにより、依然として困難である。
このギャップを埋めるため、生成的連続学習を通じてモビリティ基盤モデルをトレーニングするためのスケーラブルでプライバシ保護のフレームワークであるMoveGCLを提案する。
生データを共有せずに、凍結した教師モデルから生成された合成軌跡を再生し、破滅的な忘れを緩和する調整された蒸留戦略により知識保持を強化することにより、分散化および進歩的なモデル進化を可能にする。
モビリティパターンの不均一性に対処するため、MoveGCLはMixture-of-Experts Transformerをモビリティ対応のエキスパートルーティング機構に組み込み、階層的にプログレッシブな適応戦略を用いて継続的な更新を安定化する。
6つの実世界の都市データセットの実験では、MoveGCLが共同トレーニングに匹敵するパフォーマンスを達成し、強力なプライバシ保護を提供しながら、フェデレーション付き学習ベースラインを大幅に上回っていることが示されている。
MoveGCLは、基礎モデルの開放に向けて重要なステップであり、基礎モデルの時代に、オープンでスケーラブルでプライバシーを保護したモデル開発のための実用的な青写真を提供する。
関連論文リスト
- FedAWA: Adaptive Optimization of Aggregation Weights in Federated Learning Using Client Vectors [50.131271229165165]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
ユーザの行動、好み、デバイス特性の相違から生じるデータの異質性は、連合学習にとって重要な課題である。
本稿では,学習過程におけるクライアントベクトルに基づくアダプティブ重み付けを適応的に調整する手法であるAdaptive Weight Aggregation (FedAWA)を提案する。
論文 参考訳(メタデータ) (2025-03-20T04:49:40Z) - TrajLLM: A Modular LLM-Enhanced Agent-Based Framework for Realistic Human Trajectory Simulation [3.8106509573548286]
この作業は、Large Language Models(LLM)を活用して人間のモビリティをシミュレートし、従来のモデルにおける高コストやプライバシの問題に対処する。
我々の階層的枠組みは、実世界の人口統計と心理データを用いて、ペルソナ生成、活動選択、目的地予測を統合している。
論文 参考訳(メタデータ) (2025-02-26T00:13:26Z) - Pre-Trained Video Generative Models as World Simulators [59.546627730477454]
本研究では,事前学習した映像生成モデルを制御可能な世界シミュレータに変換するための動的世界シミュレーション(DWS)を提案する。
条件付き動作と生成した視覚的変化の正確なアライメントを実現するために,軽量で普遍的な動作条件付きモジュールを導入する。
実験により、DWSは拡散モデルと自己回帰変換モデルの両方に汎用的に適用可能であることが示された。
論文 参考訳(メタデータ) (2025-02-10T14:49:09Z) - Collaborative Imputation of Urban Time Series through Cross-city Meta-learning [54.438991949772145]
メタ学習型暗黙的ニューラル表現(INR)を利用した新しい協調的計算パラダイムを提案する。
次に,モデルに依存しないメタ学習による都市間協調学習手法を提案する。
20のグローバル都市から得られた多様な都市データセットの実験は、我々のモデルの優れた計算性能と一般化可能性を示している。
論文 参考訳(メタデータ) (2025-01-20T07:12:40Z) - Long Term Memory: The Foundation of AI Self-Evolution [48.39506286931116]
GPTのような大規模な言語モデル(LLM)は、膨大なデータセットに基づいてトレーニングされており、言語理解、推論、計画において印象的な能力を示している。
ほとんどの研究は、より強力な基盤モデルを構築するために、より大規模なデータセットをトレーニングすることで、これらのモデルを強化することに重点を置いている。
大規模なトレーニングとは異なり、推論中にモデルを進化させることは、AIの自己進化(self-evolution)と呼ばれるプロセスと同等に重要である。
論文 参考訳(メタデータ) (2024-10-21T06:09:30Z) - Reconstructing Human Mobility Pattern: A Semi-Supervised Approach for Cross-Dataset Transfer Learning [10.864774173935535]
セマンティック・アクティビティ・チェーンに着目し,人間のモビリティ・パターンを再構築し,学習するモデルを開発した。
本稿では,多様な地理的文脈にモデルを適応させるために,半教師付き反復移動学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:29:56Z) - Chain-of-Planned-Behaviour Workflow Elicits Few-Shot Mobility Generation in LLMs [20.70758465552438]
チェーン・オブ・プランテッド・ビヘイビアは、移動意図発生の誤り率を57.8%から19.4%に大幅に下げる。
重力モデルのようなメカニスティックモビリティモデルは、移動意図を物理的モビリティに効果的にマッピングできる。
提案した CoPB ワークフローは GPT-4-turbo を容易にして,移動行動推論のための高品質なラベルを自動生成する。
論文 参考訳(メタデータ) (2024-02-15T09:58:23Z) - MobilityGPT: Enhanced Human Mobility Modeling with a GPT model [12.01839817432357]
我々はこれらの問題に対処するために、自己回帰生成タスクとして、人間のモビリティモデリングを再構築する。
本稿では,ジオスパティカル・アウェア・ジェネレーティブ・モデルであるモビリティGPTを提案する。
実世界のデータセットの実験では、モビリティGPTは最先端の手法よりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:22:21Z) - Towards Efficient Task-Driven Model Reprogramming with Foundation Models [52.411508216448716]
ビジョンファウンデーションモデルは、非常に大きなモデルキャパシティと幅広いトレーニングデータから恩恵を受け、印象的なパワーを示す。
しかし、実際には、下流のシナリオは限られた計算資源や効率上の考慮のため、小さなモデルしかサポートできない。
これは、ファンデーションモデルの現実的な応用に重要な課題をもたらします。
論文 参考訳(メタデータ) (2023-04-05T07:28:33Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。