論文の概要: Potential Field as Scene Affordance for Behavior Change-Based Visual Risk Object Identification
- arxiv url: http://arxiv.org/abs/2409.15846v1
- Date: Tue, 24 Sep 2024 08:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 08:31:23.261308
- Title: Potential Field as Scene Affordance for Behavior Change-Based Visual Risk Object Identification
- Title(参考訳): 行動変化に基づく視覚的リスクオブジェクト同定のためのシーンアフォーダンスとしてのポテンシャル場
- Authors: Pang-Yuan Pao, Shu-Wei Lu, Ze-Yan Lu, Yi-Ting Chen,
- Abstract要約: 行動変化に基づく視覚的リスクオブジェクト識別(Visual-ROI)について検討する。
既存の手法はしばしば空間的精度と時間的一貫性に重大な制限を呈する。
本稿では,これらの課題を克服するために,バードアイビュー表現を用いた新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.896236083290351
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study behavior change-based visual risk object identification (Visual-ROI), a critical framework designed to detect potential hazards for intelligent driving systems. Existing methods often show significant limitations in spatial accuracy and temporal consistency, stemming from an incomplete understanding of scene affordance. For example, these methods frequently misidentify vehicles that do not impact the ego vehicle as risk objects. Furthermore, existing behavior change-based methods are inefficient because they implement causal inference in the perspective image space. We propose a new framework with a Bird's Eye View (BEV) representation to overcome the above challenges. Specifically, we utilize potential fields as scene affordance, involving repulsive forces derived from road infrastructure and traffic participants, along with attractive forces sourced from target destinations. In this work, we compute potential fields by assigning different energy levels according to the semantic labels obtained from BEV semantic segmentation. We conduct thorough experiments and ablation studies, comparing the proposed method with various state-of-the-art algorithms on both synthetic and real-world datasets. Our results show a notable increase in spatial and temporal consistency, with enhancements of 20.3% and 11.6% on the RiskBench dataset, respectively. Additionally, we can improve computational efficiency by 88%. We achieve improvements of 5.4% in spatial accuracy and 7.2% in temporal consistency on the nuScenes dataset.
- Abstract(参考訳): 本研究では,知的運転システムの潜在的な危険を検出するために,行動変化に基づく視覚的リスクオブジェクト識別(Visual-ROI)について検討する。
既存の手法では、空間的精度と時間的一貫性の重大な制限がしばしば示され、シーン・アベイランスの不完全な理解から生じる。
例えば、これらの手法は、エゴ車両に影響を及ぼさない車両を危険物として誤識別することが多い。
さらに、既存の行動変化に基づく手法は、視点画像空間に因果推論を実装しているため、非効率である。
上記の課題を克服するために,バードアイビュー(BEV)表現を用いた新しいフレームワークを提案する。
具体的には,道路インフラや交通機関から引き起こされる反発力と,目的地から引き起こされる魅力的な力を含む,潜在的フィールドをシーン・アベイランスとして活用する。
本研究では,BEVセマンティックセグメンテーションから得られたセマンティックラベルに基づいて,異なるエネルギーレベルを割り当てることでポテンシャル場を計算する。
提案手法を,合成と実世界の両方のデータセット上で,様々な最先端のアルゴリズムと比較し,徹底的な実験とアブレーション研究を行った。
その結果,空間的および時間的整合性が顕著に増加し,リスクベンチデータセットでは20.3%,11.6%が向上した。
さらに,計算効率を88%向上させることができる。
nuScenesデータセットでは,空間的精度が5.4%向上し,時間的一貫性が7.2%向上した。
関連論文リスト
- Perceptual Piercing: Human Visual Cue-based Object Detection in Low Visibility Conditions [2.0409124291940826]
本研究では,大気散乱と人間の視覚野機構に触発された新しい深層学習フレームワークを提案する。
本研究の目的は, 環境条件下での検知システムの精度と信頼性を高めることである。
論文 参考訳(メタデータ) (2024-10-02T04:03:07Z) - Efficient Data Representation for Motion Forecasting: A Scene-Specific Trajectory Set Approach [12.335528093380631]
本研究では,異なる状況に合わせたシーン固有の軌跡セットを生成するための新しい手法を提案する。
決定論的ゴールサンプリングアルゴリズムは関連する地図領域を同定する一方,再帰的分布サブサンプリング (RIDS) 法はトラジェクトリの妥当性を高める。
Argoverse 2データセットの実験では、運転エリアコンプライアンスの最大10%の改善が達成されている。
論文 参考訳(メタデータ) (2024-07-30T11:06:39Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Symbolic Perception Risk in Autonomous Driving [4.371383574272895]
交通標識分類タスクにおける誤認識のリスクを評価するための新しい枠組みを開発する。
視覚的入力品質が徐々に向上する自律運転環境での問題を考える。
条件付き値-at-risk(CVaR)の誤認識のクローズドな表現を示す。
論文 参考訳(メタデータ) (2023-03-16T15:49:24Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Collision-Aware Target-Driven Object Grasping in Constrained
Environments [10.934615956723672]
6-DoF把握システムのための新しい衝突ウェア到達可能性予測器(CARP)を提案する。
CARPは、ポーズをつかむための衝突のない確率を推定することを学び、挑戦的な環境での把握を大幅に改善します。
シミュレーションと実世界の両方で実験した結果,本手法は新規物体の75%以上の把持率を達成した。
論文 参考訳(メタデータ) (2021-04-01T21:44:07Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Scene-Graph Augmented Data-Driven Risk Assessment of Autonomous Vehicle
Decisions [1.4086978333609153]
本研究では,シーングラフを中間表現として利用する新しいデータ駆動手法を提案する。
我々のアプローチには、マルチリレーショングラフ畳み込みネットワーク、ロングショート長期記憶ネットワーク、そして運転操作の主観的リスクをモデル化するための注意層が含まれる。
提案手法は,大型(96.4%対91.2%)および小型(91.8%対71.2%)の最先端アプローチよりも高い分類精度が得られることを示す。
また、実世界のデータセットでテストすると、合成データセットでトレーニングされたモデルの平均精度が87.8%に達することを示す。
論文 参考訳(メタデータ) (2020-08-31T07:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。