論文の概要: MTP: Exploring Multimodal Urban Traffic Profiling with Modality Augmentation and Spectrum Fusion
- arxiv url: http://arxiv.org/abs/2511.10218v2
- Date: Mon, 17 Nov 2025 01:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.49608
- Title: MTP: Exploring Multimodal Urban Traffic Profiling with Modality Augmentation and Spectrum Fusion
- Title(参考訳): MTP:Modality AugmentationとSpectrum Fusionによるマルチモーダル都市交通プロファイリングの探索
- Authors: Haolong Xiang, Peisi Wang, Xiaolong Xu, Kun Yi, Xuyun Zhang, Quanzheng Sheng, Amin Beheshti, Wei Fan,
- Abstract要約: 本稿では,都市交通プロファイリングのための新しいマルチモーダルフレームワーク MTP を提案する。
数値的、視覚的、テキスト的視点を通じてマルチモーダルな特徴を学習する。
6つの実世界のデータセットの実験は、最先端のアプローチよりも優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 26.948053856623243
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With rapid urbanization in the modern era, traffic signals from various sensors have been playing a significant role in monitoring the states of cities, which provides a strong foundation in ensuring safe travel, reducing traffic congestion and optimizing urban mobility. Most existing methods for traffic signal modeling often rely on the original data modality, i.e., numerical direct readings from the sensors in cities. However, this unimodal approach overlooks the semantic information existing in multimodal heterogeneous urban data in different perspectives, which hinders a comprehensive understanding of traffic signals and limits the accurate prediction of complex traffic dynamics. To address this problem, we propose a novel Multimodal framework, MTP, for urban Traffic Profiling, which learns multimodal features through numeric, visual, and textual perspectives. The three branches drive for a multimodal perspective of urban traffic signal learning in the frequency domain, while the frequency learning strategies delicately refine the information for extraction. Specifically, we first conduct the visual augmentation for the traffic signals, which transforms the original modality into frequency images and periodicity images for visual learning. Also, we augment descriptive texts for the traffic signals based on the specific topic, background information and item description for textual learning. To complement the numeric information, we utilize frequency multilayer perceptrons for learning on the original modality. We design a hierarchical contrastive learning on the three branches to fuse the spectrum of three modalities. Finally, extensive experiments on six real-world datasets demonstrate superior performance compared with the state-of-the-art approaches.
- Abstract(参考訳): 近代の急速な都市化に伴い、様々なセンサからの交通信号が都市状態の監視に重要な役割を果たしており、安全な旅行の確保、交通渋滞の低減、都市移動の最適化に強力な基盤となっている。
交通信号モデリングの既存の手法は、しばしば元のデータモダリティ、すなわち都市のセンサーからの数値的な直接読み取りに依存している。
しかし, この一元的アプローチは, 交通信号の包括的理解を阻害し, 複雑な交通力学の正確な予測を制限し, 多モード異種都市データに存在する意味情報を異なる視点で見落としている。
この問題に対処するため,都市交通プロファイリングのための新しいマルチモーダルフレームワーク MTP を提案し,数値的,視覚的,テキスト的観点から多モーダルな特徴を学習する。
3つのブランチは、周波数領域における都市交通信号学習のマルチモーダルな視点を駆動し、周波数学習戦略は、抽出のための情報を微妙に洗練する。
具体的には、まず交通信号の視覚的拡張を行い、元のモダリティを周波数画像や周期画像に変換して視覚学習を行う。
また、特定のトピック、背景情報、およびテキスト学習のための項目記述に基づいて、交通信号の記述テキストを拡大する。
数値情報を補うために,周波数多重層パーセプトロンを用いて元のモダリティを学習する。
我々は,3つのモードのスペクトルを融合させるために,3つの分岐の階層的コントラスト学習を設計する。
最後に、6つの実世界のデータセットに対する広範な実験は、最先端のアプローチよりも優れたパフォーマンスを示している。
関連論文リスト
- SSMT: Few-Shot Traffic Forecasting with Single Source Meta-Transfer [19.768107394061374]
本稿では,交通予測に単一ソース市にのみ依存するSSMT(Single Source Meta-Transfer Learning)を提案する。
提案手法は, 限られたデータを持つ都市において, この伝達された知識を活用して, 数発の交通予報を可能にする。
我々は、ソースシティからの多様な時間的トラフィックパターンを活用することで、正弦波位置符号化の考え方を拡張し、メタラーニングタスクを確立する。
論文 参考訳(メタデータ) (2024-10-21T02:17:25Z) - Cross-domain Few-shot In-context Learning for Enhancing Traffic Sign Recognition [49.20086587208214]
交通信号認識の強化を目的としたMLLMに基づくドメイン間数ショットインコンテキスト学習手法を提案する。
記述テキストを使用することで、テンプレートと実際の交通標識のドメイン間差を低減することができる。
提案手法は,大規模交通標識画像やラベルを必要とせず,単純かつ均一なテキスト表示のみを必要とする。
論文 参考訳(メタデータ) (2024-07-08T10:51:03Z) - TrafficGPT: Towards Multi-Scale Traffic Analysis and Generation with Spatial-Temporal Agent Framework [3.947797359736224]
我々は3つのAIエージェントを用いてマルチスケールトラフィックデータを処理するマルチスケールトラフィック生成システムであるTrafficGPTを設計した。
TrafficGPTは,1)ユーザと対話し,テキストを介して予測タスクを抽出するテキスト・ツー・デマンドエージェント,2)マルチスケールトラフィックデータを利用して時間的特徴と類似性を生成するトラフィック予測エージェント,3)予測結果を用いて提案や視覚化を行う提案・可視化エージェントの3つの重要なAIエージェントから構成される。
論文 参考訳(メタデータ) (2024-05-08T07:48:40Z) - BjTT: A Large-scale Multimodal Dataset for Traffic Prediction [49.93028461584377]
従来の交通予測手法は、交通トレンドを予測するために、過去の交通データに依存している。
本研究では,交通システムを記述するテキストと生成モデルを組み合わせることで,交通生成にどのように応用できるかを考察する。
本稿では,テキスト・トラフィック生成のための最初の拡散モデルChatTrafficを提案する。
論文 参考訳(メタデータ) (2024-03-08T04:19:56Z) - Traffic Reconstruction and Analysis of Natural Driving Behaviors at
Unsignalized Intersections [1.7273380623090846]
この研究は、TNのメンフィスにある様々な無署名の交差点で、その日の異なる時間に交通を記録していた。
ビデオデータを手動でラベル付けして特定の変数をキャプチャした後,SUMOシミュレーション環境におけるトラフィックシナリオを再構築した。
これらのシミュレーションから得られた出力データは、車両移動の時間空間図、走行時間頻度分布、ボトルネック点を特定するための速度配置プロットなど、包括的な分析を提供する。
論文 参考訳(メタデータ) (2023-12-22T09:38:06Z) - TL-GAN: Improving Traffic Light Recognition via Data Synthesis for
Autonomous Driving [8.474436072102844]
本稿では,交通信号の自律運転における音声認識を改善するために,レアクラスのデータを合成するための新しい交通信号生成手法TL-GANを提案する。
画像合成段階では、条件付き生成により、生成したトラフィック光画像の色を完全に制御できる。
シーケンス組み立て段階では、現実的で多様なトラフィック光シーケンスを合成するためのスタイル混合および適応テンプレートを設計する。
論文 参考訳(メタデータ) (2022-03-28T18:12:35Z) - 3D Scene Understanding at Urban Intersection using Stereo Vision and
Digital Map [4.640144833676576]
都市交差点における交通状況の空間的・時間的解析にステレオビジョンと3次元ディジタルマップを用いた手法を提案する。
東京都の都市キャニオンで収集した実交通データに対して,提案手法を質的,定量的に評価し,システムの有効性を実証した。
論文 参考訳(メタデータ) (2021-12-10T02:05:15Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Road Network Guided Fine-Grained Urban Traffic Flow Inference [108.64631590347352]
粗いトラフィックからのきめ細かなトラフィックフローの正確な推測は、新たな重要な問題である。
本稿では,道路ネットワークの知識を活かした新しい道路対応交通流磁化器(RATFM)を提案する。
提案手法は,高品質なトラフィックフローマップを作成できる。
論文 参考訳(メタデータ) (2021-09-29T07:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。