論文の概要: Discovering Traveling Companions using Autoencoders
- arxiv url: http://arxiv.org/abs/2007.11735v1
- Date: Thu, 23 Jul 2020 01:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 11:55:52.625610
- Title: Discovering Traveling Companions using Autoencoders
- Title(参考訳): オートエンコーダを用いた旅行コンパニオンの発見
- Authors: Xiaochang Li, Bei Chen, Xuesong Lu
- Abstract要約: 本稿では,オートエンコーダ,すなわちATTN-MEANを用いた,旅行相手の発見のための汎用的な深層表現学習モデルを提案する。
実験結果から,ATTN-MEANは旅行仲間を見つける上で,最先端のアルゴリズムよりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 10.235077902913256
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: With the wide adoption of mobile devices, today's location tracking systems
such as satellites, cellular base stations and wireless access points are
continuously producing tremendous amounts of location data of moving objects.
The ability to discover moving objects that travel together, i.e., traveling
companions, from their trajectories is desired by many applications such as
intelligent transportation systems and location-based services. Existing
algorithms are either based on pattern mining methods that define a particular
pattern of traveling companions or based on representation learning methods
that learn similar representations for similar trajectories. The former methods
suffer from the pairwise point-matching problem and the latter often ignore the
temporal proximity between trajectories. In this work, we propose a generic
deep representation learning model using autoencoders, namely, ATTN-MEAN, for
the discovery of traveling companions. ATTN-MEAN collectively injects spatial
and temporal information into its input embeddings using skip-gram, positional
encoding techniques, respectively. Besides, our model further encourages
trajectories to learn from their neighbours by leveraging the
Sort-Tile-Recursive algorithm, mean operation and global attention mechanism.
After obtaining the representations from the encoders, we run DBSCAN to cluster
the representations to find travelling companion. The corresponding
trajectories in the same cluster are considered as traveling companions.
Experimental results suggest that ATTN-MEAN performs better than the
state-of-the-art algorithms on finding traveling companions.
- Abstract(参考訳): モバイルデバイスの普及により、現在の衛星、携帯電話基地局、無線アクセスポイントといった位置追跡システムは、移動物体の膨大な位置情報を連続的に生成している。
移動中の物体、すなわち移動中の仲間をその軌道から発見する能力は、インテリジェントな輸送システムやロケーションベースのサービスといった多くのアプリケーションから求められている。
既存のアルゴリズムは、旅行仲間の特定のパターンを定義するパターンマイニング法や、類似の軌跡の類似表現を学習する表現学習法に基づいている。
前者は対方向の点マッチング問題に苦しめられ、後者はしばしば軌道間の時間的近接を無視する。
本研究では,自動エンコーダ,すなわちATTN-MEANを用いて,旅行相手の発見のための汎用的な深層表現学習モデルを提案する。
ATTN-MEANは、空間情報と時間情報をそれぞれスキップグラム、位置符号化技術を用いて入力埋め込みに注入する。
さらに,本モデルでは,Solt-Tile-Recursiveアルゴリズム,平均演算,グローバルアテンション機構を活用して,近隣からの学習を促す。
エンコーダから表現を得た後、DBSCANを実行して、表現をクラスタ化し、旅行仲間を見つける。
同じクラスタ内の対応する軌道は、旅行仲間と見なされる。
実験結果から,ATTN-MEANは旅行仲間を見つける上で,最先端のアルゴリズムよりも優れていたことが示唆された。
関連論文リスト
- Surrogate Modeling of Trajectory Map-matching in Urban Road Networks using Transformer Sequence-to-Sequence Model [1.3812010983144802]
本稿では、オフラインマップマッチングアルゴリズムのサロゲートとして機能するディープラーニングモデル、特にトランスフォーマーベースのエンコーダデコーダモデルを提案する。
このモデルは、ニューヨーク州マンハッタンで収集されたGPSトレースを使って訓練され、評価されている。
論文 参考訳(メタデータ) (2024-04-18T18:39:23Z) - Improved LiDAR Odometry and Mapping using Deep Semantic Segmentation and
Novel Outliers Detection [1.0334138809056097]
高速移動プラットフォームのためのLOAMアーキテクチャに基づくリアルタイムLiDARオドメトリーとマッピングのための新しいフレームワークを提案する。
本フレームワークは,ディープラーニングモデルによって生成された意味情報を用いて,ポイント・ツー・ラインとポイント・ツー・プレーンのマッチングを改善する。
高速動作に対するLiDARオドメトリーのロバスト性に及ぼすマッチング処理の改善効果について検討した。
論文 参考訳(メタデータ) (2024-03-05T16:53:24Z) - Holistic Representation Learning for Multitask Trajectory Anomaly
Detection [65.72942351514956]
そこで本研究では,異なる時間帯における骨格軌跡の包括的表現による予測運動の学習を提案する。
我々は、時間的閉鎖された軌道を符号化し、ブロックされたセグメントの潜在表現を共同学習し、異なる時間的セグメントにわたる期待運動に基づいて軌道を再構築する。
論文 参考訳(メタデータ) (2023-11-03T11:32:53Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Decoder Fusion RNN: Context and Interaction Aware Decoders for
Trajectory Prediction [53.473846742702854]
本稿では,動き予測のための反復的,注意に基づくアプローチを提案する。
Decoder Fusion RNN (DF-RNN) は、リカレント動作エンコーダ、エージェント間マルチヘッドアテンションモジュール、コンテキスト認識デコーダで構成される。
提案手法の有効性をArgoverseモーション予測データセットで検証し,その性能を公開ベンチマークで示す。
論文 参考訳(メタデータ) (2021-08-12T15:53:37Z) - OpenPifPaf: Composite Fields for Semantic Keypoint Detection and
Spatio-Temporal Association [90.39247595214998]
イメージベースの知覚タスクは、例えば、検出、関連付け、セマンティックキーポイントとして定式化することができる。
人間の体は 推定と追跡をする
一つの段階における意味的および時間的キーポイント関連を共同で検出する一般的な枠組みを提案する。
また,本手法は車や動物などのキーポイントのクラスに一般化し,総合的な知覚の枠組みを提供することを示す。
論文 参考訳(メタデータ) (2021-03-03T14:44:14Z) - Trajectory saliency detection using consistency-oriented latent codes
from a recurrent auto-encoder [0.0]
軌道は、プログレッシブな動的サリエンシー検出をサポートする最良の方法です。
与えられた文脈に関連する共通の動きパターンを共有する通常の軌跡から逸脱した場合、軌跡は有能である。
本手法は,鉄道駅で取得した歩行者軌跡の公開データセットから得られた複数のシナリオにおいて,既存の手法に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-17T13:29:11Z) - Radar-based Dynamic Occupancy Grid Mapping and Object Detection [55.74894405714851]
近年、古典的占有グリッドマップのアプローチが動的占有グリッドマップに拡張されている。
本稿では,従来のアプローチのさらなる発展について述べる。
複数のレーダセンサのデータを融合し、グリッドベースの物体追跡・マッピング手法を適用する。
論文 参考訳(メタデータ) (2020-08-09T09:26:30Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Trajectory annotation using sequences of spatial perception [0.0]
近い将来、より多くのマシンが人間の空間の近くでタスクを実行するようになる。
この作業は、この課題に対処するための基盤を構築します。
本稿では,ニューラルオートエンコーディングに基づく教師なし学習手法を提案する。
論文 参考訳(メタデータ) (2020-04-11T12:22:27Z) - Learning Topometric Semantic Maps from Occupancy Grids [2.5234065536725963]
本稿では,このようなインスタンスベースのセマンティックマップを,占有グリッドから純粋に抽出する手法を提案する。
我々は、ランダムな大きさの地図からドア仮説を検出し、セグメンテーションし、抽出するために、深層学習技術を組み合わせている。
提案手法を,公開されている実世界の複数のデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-01-10T22:06:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。