論文の概要: How do you go where? Improving next location prediction by learning
travel mode information using transformers
- arxiv url: http://arxiv.org/abs/2210.04095v1
- Date: Sat, 8 Oct 2022 19:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:34:25.719672
- Title: How do you go where? Improving next location prediction by learning
travel mode information using transformers
- Title(参考訳): どうやって行くのですか。
変圧器を用いた移動モード情報学習による次の位置予測の改善
- Authors: Ye Hong, Henry Martin, Martin Raubal
- Abstract要約: 本稿では, トランスフォーマーデコーダに基づくニューラルネットワークを提案し, 過去の位置, 時間, 移動モードに基づいて, 個人が訪問する次の場所を予測する。
特に、次の旅行モードの予測は、ネットワークの学習をガイドする補助的なタスクとして設計されている。
実験の結果,提案手法は,他の最先端の次の位置予測手法よりも大幅に優れていることがわかった。
- 参考スコア(独自算出の注目度): 6.003006906852134
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting the next visited location of an individual is a key problem in
human mobility analysis, as it is required for the personalization and
optimization of sustainable transport options. Here, we propose a transformer
decoder-based neural network to predict the next location an individual will
visit based on historical locations, time, and travel modes, which are
behaviour dimensions often overlooked in previous work. In particular, the
prediction of the next travel mode is designed as an auxiliary task to help
guide the network's learning. For evaluation, we apply this approach to two
large-scale and long-term GPS tracking datasets involving more than 600
individuals. Our experiments show that the proposed method significantly
outperforms other state-of-the-art next location prediction methods by a large
margin (8.05% and 5.60% relative increase in F1-score for the two datasets,
respectively). We conduct an extensive ablation study that quantifies the
influence of considering temporal features, travel mode information, and the
auxiliary task on the prediction results. Moreover, we experimentally determine
the performance upper bound when including the next mode prediction in our
model. Finally, our analysis indicates that the performance of location
prediction varies significantly with the chosen next travel mode by the
individual. These results show potential for a more systematic consideration of
additional dimensions of travel behaviour in human mobility prediction tasks.
The source code of our model and experiments is available at
https://github.com/mie-lab/location-mode-prediction.
- Abstract(参考訳): 次に訪れる個人の位置を予測することは、持続可能な輸送オプションのパーソナライズと最適化のために必要となる、人の移動分析の重要な問題である。
本稿では,過去の研究でしばしば見過ごされる行動次元である過去の位置,時間,旅行モードに基づいて,個人が次に訪れる場所を予測するトランスフォーマデコーダベースのニューラルネットワークを提案する。
特に、次の旅行モードの予測は、ネットワークの学習をガイドする補助的なタスクとして設計されている。
評価のために,600人以上の個人を含む2つの大規模・長期GPS追跡データセットに適用する。
提案手法は,2つのデータセットのf1-scoreの8.05%と5.60%の相対的な増加率で,最先端の次の位置予測手法を有意に上回っている。
我々は,時間的特徴,旅行モード情報,補助タスクが予測結果に与える影響を定量化する広範なアブレーション研究を行う。
さらに,モデルに次のモード予測を含む場合の性能上限を実験的に決定する。
最後に,位置情報予測の性能は,個人が選択した次の移動モードと大きく異なることを示す。
これらの結果は、移動予測タスクにおける移動行動のさらなる次元についてより体系的に検討する可能性を示している。
私たちのモデルと実験のソースコードはhttps://github.com/mie-lab/location-mode-predictionで閲覧できます。
関連論文リスト
- Taming the Long Tail in Human Mobility Prediction [11.774792176002379]
移動予測のためのLong-Tail Adjusted Next POI Prediction (LoTNext) フレームワークを提案する。
2つの実世界の軌道データセットによる実験により、LoTNextが既存の最先端の作業を大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-19T04:28:44Z) - AMP: Autoregressive Motion Prediction Revisited with Next Token Prediction for Autonomous Driving [59.94343412438211]
本稿では,GPT方式の次のトークン動作予測を動作予測に導入する。
同種単位-ワードからなる言語データとは異なり、運転シーンの要素は複雑な空間的・時間的・意味的な関係を持つ可能性がある。
そこで本稿では,情報集約と位置符号化スタイルの異なる3つの因子化アテンションモジュールを用いて,それらの関係を捉えることを提案する。
論文 参考訳(メタデータ) (2024-03-20T06:22:37Z) - Context-aware multi-head self-attentional neural network model for next
location prediction [19.640761373993417]
我々は、歴史的位置情報から位置パターンを学習するマルチヘッド自己注意ニューラルネットワーク(A)を利用する。
提案モデルが他の最先端予測モデルより優れていることを示す。
我々は,提案モデルが文脈を考慮した移動予測に不可欠であると信じている。
論文 参考訳(メタデータ) (2022-12-04T23:40:14Z) - Meta-Learning over Time for Destination Prediction Tasks [53.12827614887103]
交通分野における公共目的と民間目標の両方を、車両の行動を理解し、予測する必要がある。
近年の研究では、時間情報の導入による予測性能の限界改善しか見出されていない。
本稿では、ニューラルネットワークが入力に応じて自身の重みを変えることを学習するハイパーネットワークに基づくアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-29T17:58:12Z) - MobTCast: Leveraging Auxiliary Trajectory Forecasting for Human Mobility
Prediction [5.911865723926626]
我々はモビリティ予測のためのトランスフォーマーベースのコンテキスト認識ネットワークであるMobTCastを提案する。
移動予測における4種類の文脈の影響について検討する:時間的・意味的・社会的・地理的文脈。
実験の結果、MobTCastは他の最先端の次世代POI予測手法よりも優れていた。
論文 参考訳(メタデータ) (2021-09-30T09:42:15Z) - Online Co-movement Pattern Prediction in Mobility Data [1.5790464310310084]
私達は共同動きパターンのオンライン予測の問題の正確な解決を提供します。
本手法の精度を計算するために,共動パターン類似度測定法を提案する。
本ソリューションの精度は,海事領域の実際のデータセット上で実験的に実証される。
論文 参考訳(メタデータ) (2021-02-17T17:01:32Z) - SMART: Simultaneous Multi-Agent Recurrent Trajectory Prediction [72.37440317774556]
本稿では,将来の軌道予測における2つの重要な課題に対処する手法を提案する。
エージェントの数に関係なく、トレーニングデータと予測と一定時間の推測の両方において、マルチモーダリティ。
論文 参考訳(メタデータ) (2020-07-26T08:17:10Z) - TPNet: Trajectory Proposal Network for Motion Prediction [81.28716372763128]
Trajectory Proposal Network (TPNet) は、新しい2段階の動作予測フレームワークである。
TPNetはまず、仮説の提案として将来の軌道の候補セットを生成し、次に提案の分類と修正によって最終的な予測を行う。
4つの大規模軌道予測データセットの実験は、TPNetが定量的かつ定性的に、最先端の結果を達成することを示した。
論文 参考訳(メタデータ) (2020-04-26T00:01:49Z) - TTDM: A Travel Time Difference Model for Next Location Prediction [14.93730951083916]
次の位置予測は、多くの位置情報ベースのアプリケーションにとって非常に重要であり、ビジネスや政府に不可欠なインテリジェンスを提供する。
既存の研究では、次の位置予測に対する一般的なアプローチは、条件付き確率に基づいて、巨大な歴史的軌跡を持つ連続的な遷移を学習することである。
本稿では,最短走行時間と実走行時間との差を利用して次の位置を推定する旅行時間差モデル(TTDM)を提案する。
論文 参考訳(メタデータ) (2020-03-16T05:16:43Z) - Deep Learning for Content-based Personalized Viewport Prediction of
360-Degree VR Videos [72.08072170033054]
本稿では、位置データとビデオフレームコンテンツを活用して、将来の頭部の動きを予測するためのディープラーニングネットワークを提案する。
このニューラルネットワークに入力されるデータを最適化するために、このモデルのために、データサンプル率、データ削減、長期予測長についても検討する。
論文 参考訳(メタデータ) (2020-03-01T07:31:50Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。