論文の概要: Context-empowered Visual Attention Prediction in Pedestrian Scenarios
- arxiv url: http://arxiv.org/abs/2210.16933v1
- Date: Sun, 30 Oct 2022 19:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:44:18.259316
- Title: Context-empowered Visual Attention Prediction in Pedestrian Scenarios
- Title(参考訳): 歩行者シナリオにおける文脈型視覚注意予測
- Authors: Igor Vozniak, Philipp Mueller, Lorena Hell, Nils Lipp, Ahmed
Abouelazm, Christian Mueller
- Abstract要約: 本稿では,歩行者の視覚的注意予測における3つの課題に対処する,新しいエンコーダ・デコーダアーキテクチャであるContext-SalNETを提案する。
まず、Context-SalNETは、エンコーダ・デコーダモデルの潜在空間における緊急性と安全性の優先性を明示的にモデル化する。
第2に,指数重み付き平均二乗誤差損失 (ew-MSE) を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective and flexible allocation of visual attention is key for pedestrians
who have to navigate to a desired goal under different conditions of urgency
and safety preferences. While automatic modelling of pedestrian attention holds
great promise to improve simulations of pedestrian behavior, current saliency
prediction approaches mostly focus on generic free-viewing scenarios and do not
reflect the specific challenges present in pedestrian attention prediction. In
this paper, we present Context-SalNET, a novel encoder-decoder architecture
that explicitly addresses three key challenges of visual attention prediction
in pedestrians: First, Context-SalNET explicitly models the context factors
urgency and safety preference in the latent space of the encoder-decoder model.
Second, we propose the exponentially weighted mean squared error loss (ew-MSE)
that is able to better cope with the fact that only a small part of the ground
truth saliency maps consist of non-zero entries. Third, we explicitly model
epistemic uncertainty to account for the fact that training data for pedestrian
attention prediction is limited. To evaluate Context-SalNET, we recorded the
first dataset of pedestrian visual attention in VR that includes explicit
variation of the context factors urgency and safety preference. Context-SalNET
achieves clear improvements over state-of-the-art saliency prediction
approaches as well as over ablations. Our novel dataset will be made fully
available and can serve as a valuable resource for further research on
pedestrian attention prediction.
- Abstract(参考訳): 視覚的注意の効果的かつ柔軟な配分は、緊急性と安全性の異なる条件下で、望ましい目標に進む必要がある歩行者にとって鍵となる。
歩行者注意度の自動モデリングは歩行者行動のシミュレーションを改善する大きな可能性を秘めているが、現在のサリエンシー予測手法は主に一般のフリービューシナリオに焦点をあて、歩行者注意度予測における具体的な課題を反映しない。
本稿では,新しいエンコーダ・デコーダアーキテクチャであるContext-SalNETを提案する。まず,エンコーダ・デコーダモデルの潜在空間において,コンテキスト要因の緊急度と安全性を明示的にモデル化する。
第二に、基底真理サリエンシー写像のごく一部がゼロでないエントリからなるという事実に対して、よりうまく対応できる指数重み付き平均二乗誤差損失(ew-mse)を提案する。
第3に,歩行者注意予測の訓練データに制限があるという事実を考慮し,認識的不確かさを明示的にモデル化する。
context-salnetを評価するために,vrにおける歩行者の視覚注意の最初のデータセットを記録した。
Context-SalNETは最先端のSaliency予測アプローチや改善点よりも明確な改善を実現している。
我々の新しいデータセットは、完全に利用可能であり、歩行者の注意予測に関するさらなる研究のための貴重な情報源となる。
関連論文リスト
- Feature Importance in Pedestrian Intention Prediction: A Context-Aware Review [9.475536008455133]
コンピュータビジョンとディープニューラルネットワークを用いた自律走行車における歩行者横断意図の予測の最近の進歩は有望である。
歩行者の意図予測に適した新しいアプローチであるCAPFI(Context-aware Permutation Feature Importance)を導入する。
CAPFIは、細分化されたシナリオコンテキストを活用することにより、より解釈可能性と信頼性の高い特徴重要度評価を可能にする。
論文 参考訳(メタデータ) (2024-09-11T22:13:01Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Pedestrian 3D Bounding Box Prediction [83.7135926821794]
我々は、自動運転車の複雑な動きの詳細をモデル化せずに、人間の合理的な推定値である3Dバウンディングボックスに焦点を当てる。
本稿では, 歩行者の3次元境界ボックス予測のための, 単純かつ効果的なモデルを提案する。
この方法は、繰り返しニューラルネットワークに基づくエンコーダ・デコーダアーキテクチャに従う。
論文 参考訳(メタデータ) (2022-06-28T17:59:45Z) - Predicting Pedestrian Crossing Intention with Feature Fusion and
Spatio-Temporal Attention [0.0]
歩行者の交差の意図は都市運転のためにリアルタイムで認識されるべきです。
最近の研究は、このタスクに視覚ベースのディープニューラルネットワークモデルを使用することの可能性を示している。
本研究は,歩行者横断意図予測において,本質的に異なる時間的特徴を融合するニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-04-12T14:10:25Z) - Safety-Oriented Pedestrian Motion and Scene Occupancy Forecasting [91.69900691029908]
我々は、個々の動きとシーン占有マップの両方を予測することを提唱する。
歩行者の相対的な空間情報を保存するScene-Actor Graph Neural Network (SA-GNN)を提案する。
2つの大規模な実世界のデータセットで、我々のシーン占有率予測が最先端のモーション予測手法よりも正確でより校正されていることを示した。
論文 参考訳(メタデータ) (2021-01-07T06:08:21Z) - PePScenes: A Novel Dataset and Baseline for Pedestrian Action Prediction
in 3D [10.580548257913843]
nuScenesにフレーム毎の2D/3Dバウンディングボックスと動作アノテーションを追加して作成された新しい歩行者行動予測データセットを提案する。
また,歩行者横断行動予測のための様々なデータモダリティを組み込んだハイブリッドニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-12-14T18:13:44Z) - A Real-Time Predictive Pedestrian Collision Warning Service for
Cooperative Intelligent Transportation Systems Using 3D Pose Estimation [10.652350454373531]
歩行者方向認識(100.53 FPS)と意図予測(35.76 FPS)の2つのタスクに対して,リアルタイムな歩行者衝突警報サービス(P2CWS)を提案する。
提案手法は,提案したサイトに依存しない特徴により,複数のサイトに対する一般化を満足する。
提案したビジョンフレームワークは、トレーニングプロセスなしでTUDデータセットの行動認識タスクの89.3%の精度を実現する。
論文 参考訳(メタデータ) (2020-09-23T00:55:12Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。