論文の概要: Obstacle-Transformer: A Trajectory Prediction Network Based on
Surrounding Trajectories
- arxiv url: http://arxiv.org/abs/2304.07711v1
- Date: Sun, 16 Apr 2023 07:26:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-18 17:36:55.451537
- Title: Obstacle-Transformer: A Trajectory Prediction Network Based on
Surrounding Trajectories
- Title(参考訳): obstacle-transformer:周辺軌道に基づく軌道予測ネットワーク
- Authors: Wendong Zhang and Qingjie Chai and Quanqi Zhang and Chengwei Wu
- Abstract要約: 本稿では,一定時間における軌道予測のためのObstacle-Transformerを提案する。
障害物'は画像や点雲ではなく周囲の軌跡によって設計されており、より広い範囲のシナリオでObstacle-Transformerが適用可能である。
- 参考スコア(独自算出の注目度): 7.502655322812067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent Neural Network, Long Short-Term Memory, and Transformer have made
great progress in predicting the trajectories of moving objects. Although the
trajectory element with the surrounding scene features has been merged to
improve performance, there still exist some problems to be solved. One is that
the time series processing models will increase the inference time with the
increase of the number of prediction sequences. Another lies in which the
features can not be extracted from the scene's image and point cloud in some
situations. Therefore, this paper proposes an Obstacle-Transformer to predict
trajectory in a constant inference time. An ``obstacle'' is designed by the
surrounding trajectory rather than images or point clouds, making
Obstacle-Transformer more applicable in a wider range of scenarios. Experiments
are conducted on ETH and UCY data sets to verify the performance of our model.
- Abstract(参考訳): リカレントニューラルネットワーク、Long Short-Term Memory、Transformerは、移動物体の軌道予測に大きな進歩をもたらした。
周囲の特徴を持つ軌道要素は, 性能向上のために統合されているが, 解決すべき問題がいくつか残っている。
1つは、時系列処理モデルが予測シーケンス数の増加とともに推論時間を増加させるということである。
もうひとつは、シーンの画像から特徴を引き出すことができず、ある状況ではポイントクラウドを抽出できないことだ。
そこで本稿では,一定時間における軌道予測のためのObstacle-Transformerを提案する。
Obstacle''は画像や点雲ではなく周囲の軌跡によって設計されており、より広い範囲のシナリオでObstacle-Transformerが適用可能である。
ETHデータセットとUCYデータセットを用いて実験を行い、モデルの性能を検証する。
関連論文リスト
- Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - CARD: Channel Aligned Robust Blend Transformer for Time Series
Forecasting [50.23240107430597]
本稿では,CARD(Channel Aligned Robust Blend Transformer)という特殊なトランスを設計する。
まず、CARDはチャネルに沿ったアテンション構造を導入し、信号間の時間的相関をキャプチャする。
第二に、マルチスケール知識を効率的に活用するために、異なる解像度のトークンを生成するトークンブレンドモジュールを設計する。
第3に,潜在的な過度な問題を軽減するため,時系列予測のためのロバストな損失関数を導入する。
論文 参考訳(メタデータ) (2023-05-20T05:16:31Z) - STDepthFormer: Predicting Spatio-temporal Depth from Video with a
Self-supervised Transformer Model [0.0]
ビデオ入力と空間的時間的注意ネットワークから,映像のフレーム列を同時に予測する自己教師型モデルを提案する。
提案モデルでは,物体形状やテクスチャなどの事前のシーン知識を,単一画像深度推定法に類似した手法で活用する。
マルチオブジェクト検出、セグメンテーション、トラッキングを含む複雑なモデルを必要とするのではなく、暗黙的にシーン内のオブジェクトの動きを予測することができる。
論文 参考訳(メタデータ) (2023-03-02T12:22:51Z) - Fast Trajectory End-Point Prediction with Event Cameras for Reactive
Robot Control [4.110120522045467]
本稿では,これらの問題を克服するために,イベントカメラの低レイテンシ,動作駆動サンプリング,データ圧縮特性を活用することを提案する。
ユースケースとして、私たちはパンダのロボットアームを使って、テーブルの上で跳ねるボールをインターセプトします。
シミュレーションでネットワークをトレーニングし、データセットの取得を高速化し、実際の軌道上でモデルを微調整します。
論文 参考訳(メタデータ) (2023-02-27T14:14:52Z) - Graph-based Spatial Transformer with Memory Replay for Multi-future
Pedestrian Trajectory Prediction [13.466380808630188]
歴史的軌跡に基づく複数経路の予測モデルを提案する。
提案手法は,空間情報を利用するとともに,時間的に矛盾した軌道を補正することができる。
実験により,提案手法は,複数未来予測の最先端性能と,単一未来予測の競合結果が得られることを示した。
論文 参考訳(メタデータ) (2022-06-12T10:25:12Z) - Learning Future Object Prediction with a Spatiotemporal Detection
Transformer [1.1543275835002982]
我々は、未来のオブジェクトを直接出力するように検出変換器を訓練する。
既存のトランスフォーマーを2つの方法で拡張し、シーンダイナミクスをキャプチャします。
我々の最終アプローチは、力学を捉えることを学び、100ミリ秒の予測地平線をオラクルと同等に予測する。
論文 参考訳(メタデータ) (2022-04-21T17:58:36Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - PreTR: Spatio-Temporal Non-Autoregressive Trajectory Prediction
Transformer [0.9786690381850356]
PRediction Transformer (PReTR) と呼ばれるモデルを導入し、時間分解型アテンションモジュールを用いてマルチエージェントシーンから特徴を抽出する。
これは、経験的により良い結果を持つ以前の研究されたモデルよりも計算上の必要性が低いことを示している。
我々は,学習対象クエリの集合を並列デコードするために,エンコーダ・デコーダ・トランスフォーマネットワークを利用する。
論文 参考訳(メタデータ) (2022-03-17T12:52:23Z) - End-to-end Contextual Perception and Prediction with Interaction
Transformer [79.14001602890417]
我々は3次元物体の検出と将来の動きを自動運転の文脈で予測する問題に取り組む。
空間的・時間的依存関係を捉えるために,新しいトランスフォーマーアーキテクチャを用いたリカレントニューラルネットワークを提案する。
私たちのモデルはエンドツーエンドでトレーニングでき、リアルタイムで実行されます。
論文 参考訳(メタデータ) (2020-08-13T14:30:12Z) - PnPNet: End-to-End Perception and Prediction with Tracking in the Loop [82.97006521937101]
我々は、自動運転車の文脈において、共同認識と運動予測の問題に取り組む。
我々は,入力センサデータとしてエンド・ツー・エンドのモデルであるNetを提案し,各ステップのオブジェクト追跡とその将来レベルを出力する。
論文 参考訳(メタデータ) (2020-05-29T17:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。