論文の概要: Vision-Guided Forecasting -- Visual Context for Multi-Horizon Time
Series Forecasting
- arxiv url: http://arxiv.org/abs/2107.12674v1
- Date: Tue, 27 Jul 2021 08:52:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:52:42.695210
- Title: Vision-Guided Forecasting -- Visual Context for Multi-Horizon Time
Series Forecasting
- Title(参考訳): vision-guided forecasting --visual context for multi-horizon time series forecasting
- Authors: Eitan Kosman, Dotan Di Castro
- Abstract要約: 2つのモードを融合させて車両状態のマルチ水平予測に取り組む。
我々は,視覚的特徴抽出のための3次元畳み込みと,速度と操舵角度トレースからの特徴抽出のための1次元畳み込みの設計と実験を行った。
我々は,車両の状態を様々な地平線に予測でき,運転状態推定のタスクにおいて,現在の最先端結果よりも優れた結果が得られることを示す。
- 参考スコア(独自算出の注目度): 0.6947442090579469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving gained huge traction in recent years, due to its potential
to change the way we commute. Much effort has been put into trying to estimate
the state of a vehicle. Meanwhile, learning to forecast the state of a vehicle
ahead introduces new capabilities, such as predicting dangerous situations.
Moreover, forecasting brings new supervision opportunities by learning to
predict richer a context, expressed by multiple horizons. Intuitively, a video
stream originated from a front-facing camera is necessary because it encodes
information about the upcoming road. Besides, historical traces of the
vehicle's states give more context. In this paper, we tackle multi-horizon
forecasting of vehicle states by fusing the two modalities. We design and
experiment with 3 end-to-end architectures that exploit 3D convolutions for
visual features extraction and 1D convolutions for features extraction from
speed and steering angle traces. To demonstrate the effectiveness of our
method, we perform extensive experiments on two publicly available real-world
datasets, Comma2k19 and the Udacity challenge. We show that we are able to
forecast a vehicle's state to various horizons, while outperforming the current
state-of-the-art results on the related task of driving state estimation. We
examine the contribution of vision features, and find that a model fed with
vision features achieves an error that is 56.6% and 66.9% of the error of a
model that doesn't use those features, on the Udacity and Comma2k19 datasets
respectively.
- Abstract(参考訳): 近年の自動運転は、通勤方法を変える可能性を秘めているため、大きな注目を集めている。
車両の状態を推定するために、多くの努力が払われた。
一方、前方の車両の状態を予測する学習は、危険な状況を予測するなど、新しい機能を導入している。
さらに、予測は、複数の地平線で表されるコンテキストをよりリッチに予測することを学ぶことによって、新たな監視機会をもたらす。
直感的には、前面カメラに由来する映像ストリームは、来るべき道路に関する情報を符号化するので必要である。
さらに、車両の国家の歴史的痕跡は、よりコンテキストを与える。
本稿では2つのモードを融合させて車両状態のマルチ水平予測に取り組む。
視覚特徴抽出のための3次元畳み込みと,速度および操舵角度トレースからの特徴抽出のための1次元畳み込みを利用する3つのエンドツーエンドアーキテクチャの設計と実験を行った。
提案手法の有効性を実証するため, 公開されている2つの実世界のデータセット, Comma2k19 と Udacity Challenge について広範な実験を行った。
運転状態推定の課題に対して,現状の結果を上回りながら,様々な地平線に対して車両の状態を予測することが可能であることを示す。
視覚特徴の寄与について検討し、視覚特徴を付与したモデルが、それぞれudacityとcomma2k19データセット上で、これらの特徴を使用しないモデルのエラーの56.6%と66.9%のエラーを達成することを見出した。
関連論文リスト
- Cohere3D: Exploiting Temporal Coherence for Unsupervised Representation
Learning of Vision-based Autonomous Driving [73.3702076688159]
本稿では,コヒーレントなインスタンス表現を長期入力シーケンスで学習するための,新しいコントラスト学習アルゴリズムであるCohere3Dを提案する。
我々は,様々な下流認識,予測,計画タスクにおいて,事前学習したモデルを微調整することにより,アルゴリズムを評価する。
論文 参考訳(メタデータ) (2024-02-23T19:43:01Z) - Visual Point Cloud Forecasting enables Scalable Autonomous Driving [28.376086570498952]
視覚的自律運転アプリケーションは、セマンティクス、三次元幾何学、時間情報を同時に含む機能を必要とする。
我々は、下流のビジュアルエンコーダを事前訓練するための一般的なモデルViDARを提案する。
実験の結果、例えば3D検出における3.1%のNDS、モーション予測における10%のエラー削減、計画における衝突率15%の削減といった下流タスクが顕著に向上した。
論文 参考訳(メタデータ) (2023-12-29T15:44:13Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - ST-P3: End-to-end Vision-based Autonomous Driving via Spatial-Temporal
Feature Learning [132.20119288212376]
本稿では,認識,予測,計画タスクを同時に行うための,より代表的な特徴の集合に対する時空間的特徴学習手法を提案する。
私たちの知識を最大限に活用するために、私たちは、解釈可能なエンドツーエンドの自動運転システムの各部分を体系的に調査した最初の人です。
論文 参考訳(メタデータ) (2022-07-15T16:57:43Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Vehicle Trajectory Prediction in Crowded Highway Scenarios Using Bird
Eye View Representations and CNNs [0.0]
本稿では,図形表現を用いた車両軌道予測の新しい手法について述べる。
この問題は、交通参加者間の基盤となる関係を学習するためにネットワークを訓練する画像回帰問題である。
このモデルは2つの反対の交通流で同時に30台以上の車両で高速道路のシナリオでテストされている。
論文 参考訳(メタデータ) (2020-08-26T11:15:49Z) - Two-Stream Networks for Lane-Change Prediction of Surrounding Vehicles [8.828423067460644]
高速道路のシナリオでは、人間のドライバーは視覚的手がかりのみを使用して車両を取り巻く早期の切り込みと切り抜きの操作を予想する。
周囲車両の車線変化認識と予測に対処するため,ビデオカメラからの視覚的手がかりを積み重ねることで,行動認識・予測問題としてこの問題を提起する。
2ストリーム畳み込みネットワークと乗算器ネットワークという2つのビデオアクション認識アプローチが分析されている。
論文 参考訳(メタデータ) (2020-08-25T07:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。