論文の概要: Learning Generalized and Flexible Trajectory Models from Omni-Semantic Supervision
- arxiv url: http://arxiv.org/abs/2505.17437v1
- Date: Fri, 23 May 2025 03:32:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.796389
- Title: Learning Generalized and Flexible Trajectory Models from Omni-Semantic Supervision
- Title(参考訳): Omni-Semantic Supervision を用いた一般化・フレキシブル軌道モデルの学習
- Authors: Yuanshao Zhu, James Jianqiao Yu, Xiangyu Zhao, Xiao Han, Qidong Liu, Xuetao Wei, Yuxuan Liang,
- Abstract要約: OmniTrajは,4つの相補的モダリティやセマンティクスを統合システムに統合した,フレキシブルなOmni-semantic trajectory検索フレームワークである。
単一のモダリティとして計算や処理に限られる従来のアプローチとは異なり、OmniTrajは、共有表現空間に埋め込まれた各モダリティのための専用エンコーダを設計した。
この設計により、OmniTrajは個々のモダリティや組み合わせに基づいて正確で柔軟なクエリをサポートし、従来の類似性に基づくメソッドの剛性に打ち勝つことができる。
- 参考スコア(独自算出の注目度): 37.341036356928576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The widespread adoption of mobile devices and data collection technologies has led to an exponential increase in trajectory data, presenting significant challenges in spatio-temporal data mining, particularly for efficient and accurate trajectory retrieval. However, existing methods for trajectory retrieval face notable limitations, including inefficiencies in large-scale data, lack of support for condition-based queries, and reliance on trajectory similarity measures. To address the above challenges, we propose OmniTraj, a generalized and flexible omni-semantic trajectory retrieval framework that integrates four complementary modalities or semantics -- raw trajectories, topology, road segments, and regions -- into a unified system. Unlike traditional approaches that are limited to computing and processing trajectories as a single modality, OmniTraj designs dedicated encoders for each modality, which are embedded and fused into a shared representation space. This design enables OmniTraj to support accurate and flexible queries based on any individual modality or combination thereof, overcoming the rigidity of traditional similarity-based methods. Extensive experiments on two real-world datasets demonstrate the effectiveness of OmniTraj in handling large-scale data, providing flexible, multi-modality queries, and supporting downstream tasks and applications.
- Abstract(参考訳): モバイルデバイスやデータ収集技術の普及により、トラジェクトリデータの指数的に増加し、特に効率的かつ正確なトラジェクトリ検索において、時空間データマイニングにおいて重要な課題が提示されている。
しかし,既存のトラジェクトリ検索手法では,大規模データの非効率性,条件ベースのクエリサポートの欠如,トラジェクトリ類似度尺度への依存など,顕著な制限が課されている。
上記の課題に対処するため,OmniTrajを提案する。OmniTrajは,4つの相補的モダリティやセマンティクス(生の軌跡,トポロジ,道路セグメント,地域)を統合システムに統合した,汎用的でフレキシブルなOmni-semantic trajectory検索フレームワークである。
単一のモダリティとして計算や処理に限られる従来のアプローチとは異なり、OmniTrajは各モダリティのための専用エンコーダを設計し、共有表現空間に埋め込み、融合する。
この設計により、OmniTrajは個々のモダリティや組み合わせに基づいて正確で柔軟なクエリをサポートし、従来の類似性に基づくメソッドの剛性に打ち勝つことができる。
2つの実世界のデータセットに対する大規模な実験は、大規模なデータを扱う上でOmniTrajの有効性を示し、フレキシブルでマルチモーダルなクエリを提供し、下流のタスクやアプリケーションをサポートする。
関連論文リスト
- Flex: End-to-End Text-Instructed Visual Navigation from Foundation Model Features [59.892436892964376]
本稿では,視覚に基づく制御ポリシを用いて,ロバストな閉ループ性能を実現するために必要な最小限のデータ要件とアーキテクチャ適応について検討する。
この知見はFlex (Fly lexically) で合成され, 凍結パッチワイド特徴抽出器として, 事前学習された視覚言語モデル (VLM) を用いたフレームワークである。
本研究では,本手法の有効性を,行動クローンによる訓練を実世界のシーンに応用した,四重項フライ・トゥ・ターゲットタスクに適用した。
論文 参考訳(メタデータ) (2024-10-16T19:59:31Z) - Generalizable Spacecraft Trajectory Generation via Multimodal Learning with Transformers [14.176630393074149]
本稿では,様々な問題構成にまたがって一般化する新しいトラジェクトリ生成フレームワークを提案する。
我々は、データソースから学習できる高容量トランスフォーマーニューラルネットワークを活用している。
このフレームワークはフリーフライアプラットフォームでのシミュレーションと実験を通じて検証されている。
論文 参考訳(メタデータ) (2024-10-15T15:55:42Z) - Transferable Unsupervised Outlier Detection Framework for Human Semantic Trajectories [9.816270572121724]
本稿では,TOD4Traj(Transferable Outlier Detection for Human Semantic Trajectories)フレームワークを提案する。
ToD4Trajはまず、多様なデータ特徴表現を整合させるモダリティ機能統一モジュールを導入した。
コントラスト学習モジュールは、時間的および集団間の定期的な移動パターンを特定するために、さらにプロポーズされる。
論文 参考訳(メタデータ) (2024-09-28T22:31:00Z) - XTrack: Multimodal Training Boosts RGB-X Video Object Trackers [88.72203975896558]
マルチモーダルセンシングから得られる知識を効果的に共有することが重要である。
異なるモダリティにまたがる類似のサンプルは、他のものよりも多くの知識を共有できる。
提案手法は,現在のSOTAよりも平均+3%精度が向上したRGB-Xトラッカーである。
論文 参考訳(メタデータ) (2024-05-28T03:00:58Z) - Improving Transferability for Cross-domain Trajectory Prediction via
Neural Stochastic Differential Equation [41.09061877498741]
外部要因とデータ取得戦略によるデータセット間での相違がある。
大規模データセットでトレーニングされたモデルの熟練した性能は、他の小規模データセットでの転送可能性に制限がある。
本稿では,ニューラル微分方程式(NSDE)の連続的利用に基づく不一致の緩和手法を提案する。
提案手法の有効性は,一般的なベンチマークデータセットであるnuScenes,Argoverse,Lyft,InterinterAction,Open Motionデータセット上で,最先端の軌道予測モデルに対して検証される。
論文 参考訳(メタデータ) (2023-12-26T06:50:29Z) - Enhancing Explainability in Mobility Data Science through a combination
of methods [0.08192907805418582]
本稿では,重要なXAI技法を調和させる包括的フレームワークを提案する。
LIME Interpretable Model-a-gnostic Explanations, SHAP, Saliency Map, attention mechanism, direct trajectory Visualization, and Permutation Feature (PFI)
本研究の枠組みを検証するため,様々な利用者の嗜好や受容度を評価する調査を行った。
論文 参考訳(メタデータ) (2023-12-01T07:09:21Z) - Single-Model and Any-Modality for Video Object Tracking [85.83753760853142]
任意のモダリティに対して単一のパラメータセットの統一トラッカーUn-Trackを導入する。
任意のモダリティを扱うために,低ランク因子化および再構成手法を用いて,それらの共通潜時空間を学習する。
我々のUn-Trackは、+6.6M(93M以上)のパラメータを持つ+2.14(21.50以上)のGFLOPを導入することで、DepthTrackデータセット上で、+8.1絶対Fスコアゲインを達成する。
論文 参考訳(メタデータ) (2023-11-27T14:17:41Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - Omni-Training for Data-Efficient Deep Learning [80.28715182095975]
近年の進歩により、適切に訓練されたモデルが重要な特性であるトランスファービリティを持つことが明らかとなった。
事前訓練とメタトレーニングの厳密な組み合わせは、どちらの種類のトランスファー可能性も達成できない。
このことが提案されているOmni-Trainingフレームワークを,データ効率のよいディープラーニングに動機付けている。
論文 参考訳(メタデータ) (2021-10-14T16:30:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。