論文の概要: Learning Road Scene-level Representations via Semantic Region Prediction
- arxiv url: http://arxiv.org/abs/2301.00714v1
- Date: Mon, 2 Jan 2023 15:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:56:21.995989
- Title: Learning Road Scene-level Representations via Semantic Region Prediction
- Title(参考訳): 意味領域予測による道路シーンレベルの表現の学習
- Authors: Zihao Xiao, Alan Yuille, Yi-Ting Chen
- Abstract要約: 自動走行システムにおける2つの重要な課題、すなわち運転意図予測と自我中心画像からの危険物体識別に取り組む。
我々は、シーンレベルの表現は、エゴ車両周辺の交通シーンの高レベルな意味的および幾何学的表現を捉える必要があると論じる。
本稿では,新しい意味領域予測タスクと自動意味領域ラベリングアルゴリズムを用いてシーンレベルの表現を学習する。
- 参考スコア(独自算出の注目度): 11.518756759576657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we tackle two vital tasks in automated driving systems, i.e.,
driver intent prediction and risk object identification from egocentric images.
Mainly, we investigate the question: what would be good road scene-level
representations for these two tasks? We contend that a scene-level
representation must capture higher-level semantic and geometric representations
of traffic scenes around ego-vehicle while performing actions to their
destinations. To this end, we introduce the representation of semantic regions,
which are areas where ego-vehicles visit while taking an afforded action (e.g.,
left-turn at 4-way intersections). We propose to learn scene-level
representations via a novel semantic region prediction task and an automatic
semantic region labeling algorithm. Extensive evaluations are conducted on the
HDD and nuScenes datasets, and the learned representations lead to
state-of-the-art performance for driver intention prediction and risk object
identification.
- Abstract(参考訳): 本研究では,自動運転システムにおける2つの重要な課題,すなわち,エゴセントリック画像からのドライバ意図予測とリスクオブジェクト識別に取り組む。
主に、これらの2つのタスクに対して、適切な道路シーンレベルの表現は何か?
シーンレベルの表現は、目的地へのアクションを実行しながら、エゴ車両周辺の交通シーンの高レベルな意味と幾何学的表現をキャプチャしなければなりません。
この目的のために,手頃な行動(4方向交差点での左折など)をしながら,エゴ車両が訪れる領域である意味領域の表現を導入する。
本稿では,新しい意味領域予測タスクと自動意味領域ラベリングアルゴリズムを用いてシーンレベルの表現を学習する。
HDD と nuScenes データセットで広範囲な評価を行い,学習結果からドライバの意図予測とリスクオブジェクト識別の最先端性能が得られた。
関連論文リスト
- Flow-guided Motion Prediction with Semantics and Dynamic Occupancy Grid Maps [5.9803668726235575]
OGM(Occupancy Grid Maps)は、一般的にシーン予測に使用される。
近年,OGMと深層学習を併用してシーンの進化を予測する手法が研究されている。
我々は,動的なOGMとセマンティック情報を利用して,将来の車両セマンティックグリッドとシーンの将来の流れを予測できる新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T14:42:34Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - Interpretable End-to-End Driving Model for Implicit Scene Understanding [3.4248756007722987]
暗黙的な高次元シーン特徴を抽出するエンド・ツー・エンドのインプリケート・インプリケート・ドライビング・シーン理解(II-DSU)モデルを提案する。
提案手法は,新しい最先端技術を実現し,運転に関連するよりリッチなシーン情報を具現化したシーン特徴を得ることができる。
論文 参考訳(メタデータ) (2023-08-02T14:43:08Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Policy Pre-training for End-to-end Autonomous Driving via
Self-supervised Geometric Modeling [96.31941517446859]
PPGeo (Policy Pre-training via Geometric Modeling) は,視覚運動運転における政策事前学習のための,直感的かつ直接的な完全自己教師型フレームワークである。
本研究では,大規模な未ラベル・未校正動画の3次元幾何学シーンをモデル化することにより,ポリシー表現を強力な抽象化として学習することを目的とする。
第1段階では、幾何モデリングフレームワークは、2つの連続したフレームを入力として、ポーズと深さの予測を同時に生成する。
第2段階では、視覚エンコーダは、将来のエゴモーションを予測し、現在の視覚観察のみに基づいて測光誤差を最適化することにより、運転方針表現を学習する。
論文 参考訳(メタデータ) (2023-01-03T08:52:49Z) - NEAT: Neural Attention Fields for End-to-End Autonomous Driving [59.60483620730437]
本稿では、模倣学習モデルの効率的な推論を可能にする新しい表現であるNEAT(NEural Attention Field)を提案する。
NEATは、Bird's Eye View (BEV) シーン座標の位置をウェイポイントとセマンティクスにマッピングする連続関数である。
有害な環境条件や挑戦的なシナリオを含む新たな評価環境では、NEATはいくつかの強いベースラインを上回り、特権のあるCARLA専門家と同等の運転スコアを達成している。
論文 参考訳(メタデータ) (2021-09-09T17:55:28Z) - An Image-based Approach of Task-driven Driving Scene Categorization [7.291979964739049]
本稿では,弱監督データを用いたタスク駆動運転場面分類手法を提案する。
異なるセマンティック属性のシーンを対比学習によって識別する尺度を学習する。
セマンティックシーン類似性学習とドライビングシーン分類の結果を広範囲に研究した。
論文 参考訳(メタデータ) (2021-03-10T08:23:36Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - Commands 4 Autonomous Vehicles (C4AV) Workshop Summary [91.92872482200018]
本稿では,最近のEmphTalk2Carデータセットに基づいて,EmphCommands for autonomous Vehicles (C4AV)チャレンジの結果について述べる。
我々は、トップパフォーマンスモデルを成功させる側面を特定し、それらを視覚的なグラウンド化のために既存の最先端モデルと関連付ける。
論文 参考訳(メタデータ) (2020-09-18T12:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。