論文の概要: VisionNet: A Drivable-space-based Interactive Motion Prediction Network
for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2001.02354v1
- Date: Wed, 8 Jan 2020 03:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 09:58:17.786829
- Title: VisionNet: A Drivable-space-based Interactive Motion Prediction Network
for Autonomous Driving
- Title(参考訳): VisionNet: 自律走行のためのドライビングスペースに基づく対話型モーション予測ネットワーク
- Authors: Yanliang Zhu, Deheng Qian, Dongchun Ren, Huaxia Xia
- Abstract要約: 環境交通状況の理解は、自動運転車の運転安全を確実にする。
そこで我々は,CNNに基づく軌道予測のためのVisionNetを提案する。
VisionNetは、将来のドライビング可能な空間を推定するために、位置、速度、加速度といった一連の運動状態を受け入れる。
- 参考スコア(独自算出の注目度): 5.227075179857056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The comprehension of environmental traffic situation largely ensures the
driving safety of autonomous vehicles. Recently, the mission has been
investigated by plenty of researches, while it is hard to be well addressed due
to the limitation of collective influence in complex scenarios. These
approaches model the interactions through the spatial relations between the
target obstacle and its neighbors. However, they oversimplify the challenge
since the training stage of the interactions lacks effective supervision. As a
result, these models are far from promising. More intuitively, we transform the
problem into calculating the interaction-aware drivable spaces and propose the
CNN-based VisionNet for trajectory prediction. The VisionNet accepts a sequence
of motion states, i.e., location, velocity, and acceleration, to estimate the
future drivable spaces. The reified interactions significantly increase the
interpretation ability of the VisionNet and refine the prediction. To further
advance the performance, we propose an interactive loss to guide the generation
of the drivable spaces. Experiments on multiple public datasets demonstrate the
effectiveness of the proposed VisionNet.
- Abstract(参考訳): 環境交通状況の理解は、自動運転車の運転安全を確実にする。
近年, 複雑なシナリオにおける集団的影響の制限により, 対処が困難であるにもかかわらず, 研究が盛んに行われている。
これらのアプローチは、対象障害物とその近傍の空間的関係を通して相互作用をモデル化する。
しかし、インタラクションのトレーニング段階には効果的な監督が欠けているため、課題を単純化している。
結果として、これらのモデルは有望とは程遠い。
より直感的に、我々はこの問題を対話対応ドライビング空間の計算に変換し、軌道予測のためのCNNベースのVisionNetを提案する。
VisionNetは将来の乾燥可能な空間を推定するために、位置、速度、加速度といった一連の運動状態を受け入れる。
改良された相互作用はVisionNetの解釈能力を著しく向上させ、予測を洗練させる。
この性能をさらに高めるために,自由空間の生成を導くための対話的損失を提案する。
複数の公開データセットの実験では、提案されたVisionNetの有効性が示されている。
関連論文リスト
- Attention-aware Social Graph Transformer Networks for Stochastic Trajectory Prediction [16.55909815712467]
軌道予測は、自律運転やロボット工学など、様々なインテリジェントな技術の基本である。
現在の軌道予測研究は、複雑な社会的相互作用、高ダイナミクス、多モード性といった問題に直面している。
マルチモーダル軌道予測のためのアテンション対応ソーシャルグラフトランスフォーマーネットワークを提案する。
論文 参考訳(メタデータ) (2023-12-26T04:24:01Z) - Interpretable Goal-Based model for Vehicle Trajectory Prediction in
Interactive Scenarios [4.1665957033942105]
自動車とその周囲の社会的相互作用は、自動運転における道路安全にとって重要である。
対話型環境における車両軌道予測のためのニューラルネットワークモデルを提案する。
我々は、InterActionデータセットを用いてモデルを実装し、評価し、提案したアーキテクチャの有効性を実証する。
論文 参考訳(メタデータ) (2023-08-08T15:00:12Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - SCOUT: Socially-COnsistent and UndersTandable Graph Attention Network
for Trajectory Prediction of Vehicles and VRUs [0.0]
SCOUTは、グラフとしてシーンの柔軟で汎用的な表現を使用する新しい注意ベースのグラフニューラルネットワークです。
我々は3つの異なる注意メカニズムを探索し,鳥眼視と車載都市データを用いてそのスキームをテストする。
RounDデータセットの全く新しいシナリオでテストすることにより、モデルの柔軟性と転送性を評価します。
論文 参考訳(メタデータ) (2021-02-12T06:29:28Z) - Learning to Communicate and Correct Pose Errors [75.03747122616605]
本稿では、V2VNetで提案された設定について検討し、近くにある自動運転車が共同で物体検出と動き予測を協調的に行う方法を提案する。
本稿では,コミュニケーションを学習し,潜在的な誤りを推定し,それらの誤りについてコンセンサスを得るための新しいニューラルネットワーク推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-10T18:19:40Z) - What-If Motion Prediction for Autonomous Driving [58.338520347197765]
生存可能なソリューションは、道路レーンのような静的な幾何学的文脈と、複数のアクターから生じる動的な社会的相互作用の両方を考慮しなければならない。
本稿では,解釈可能な幾何学的(アクター・レーン)と社会的(アクター・アクター)の関係を持つグラフに基づく注意的アプローチを提案する。
提案モデルでは,道路レーンやマルチアクターの相互作用を仮定的に,あるいは「何」かで予測できる。
論文 参考訳(メタデータ) (2020-08-24T17:49:30Z) - End-to-end Contextual Perception and Prediction with Interaction
Transformer [79.14001602890417]
我々は3次元物体の検出と将来の動きを自動運転の文脈で予測する問題に取り組む。
空間的・時間的依存関係を捉えるために,新しいトランスフォーマーアーキテクチャを用いたリカレントニューラルネットワークを提案する。
私たちのモデルはエンドツーエンドでトレーニングでき、リアルタイムで実行されます。
論文 参考訳(メタデータ) (2020-08-13T14:30:12Z) - Implicit Latent Variable Model for Scene-Consistent Motion Forecasting [78.74510891099395]
本稿では,センサデータから直接複雑な都市交通のシーン一貫性のある動き予測を学習することを目的とする。
我々は、シーンを相互作用グラフとしてモデル化し、強力なグラフニューラルネットワークを用いてシーンの分散潜在表現を学習する。
論文 参考訳(メタデータ) (2020-07-23T14:31:25Z) - Social-WaGDAT: Interaction-aware Trajectory Prediction via Wasserstein
Graph Double-Attention Network [29.289670231364788]
本稿では,マルチエージェント軌道予測のためのジェネリック生成ニューラルシステムを提案する。
また、車両軌道予測に効率的なキネマティック拘束層を応用した。
提案システムは,軌道予測のための3つの公開ベンチマークデータセットを用いて評価する。
論文 参考訳(メタデータ) (2020-02-14T20:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。