論文の概要: Multi-modality Anomaly Segmentation on the Road
- arxiv url: http://arxiv.org/abs/2503.17712v1
- Date: Sat, 22 Mar 2025 09:55:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:38:51.511338
- Title: Multi-modality Anomaly Segmentation on the Road
- Title(参考訳): 道路上の多モード異常セグメンテーション
- Authors: Heng Gao, Zhuolin He, Shoumeng Qiu, Xiangyang Xue, Jian Pu,
- Abstract要約: 現在の一様異常セグメンテーションフレームワークは、画像中の非異常領域に対して高い異常スコアを生成する傾向にある。
我々は自律運転システムのためのマルチモーダルな不確実性に基づく異常セグメンテーションフレームワークMMRAS+を開発した。
実際、MMRAS+は自律運転のための最初のマルチモーダルな異常セグメンテーションソリューションである。
- 参考スコア(独自算出の注目度): 39.96773593485109
- License:
- Abstract: Semantic segmentation allows autonomous driving cars to understand the surroundings of the vehicle comprehensively. However, it is also crucial for the model to detect obstacles that may jeopardize the safety of autonomous driving systems. Based on our experiments, we find that current uni-modal anomaly segmentation frameworks tend to produce high anomaly scores for non-anomalous regions in images. Motivated by this empirical finding, we develop a multi-modal uncertainty-based anomaly segmentation framework, named MMRAS+, for autonomous driving systems. MMRAS+ effectively reduces the high anomaly outputs of non-anomalous classes by introducing text-modal using the CLIP text encoder. Indeed, MMRAS+ is the first multi-modal anomaly segmentation solution for autonomous driving. Moreover, we develop an ensemble module to further boost the anomaly segmentation performance. Experiments on RoadAnomaly, SMIYC, and Fishyscapes validation datasets demonstrate the superior performance of our method. The code is available in https://github.com/HengGao12/MMRAS_plus.
- Abstract(参考訳): セマンティックセグメンテーションにより、自動運転車は車両の周囲を包括的に理解することができる。
しかし、モデルが自律運転システムの安全性を損なう可能性のある障害を検出することも重要である。
実験の結果,現在の一様異常セグメンテーションフレームワークは画像中の非非正則領域に対して高い異常スコアを生じる傾向にあることがわかった。
この経験的発見に触発され、自律運転システムのためのマルチモーダルな不確実性に基づく異常セグメンテーションフレームワークMMRAS+を開発した。
MMRAS+は、CLIPテキストエンコーダを使用してテキストモダルを導入することにより、非アノマラスクラスの高い異常出力を効果的に削減する。
実際、MMRAS+は自律運転のための最初のマルチモーダルな異常セグメンテーションソリューションである。
さらに,異常セグメンテーション性能をさらに向上させるアンサンブルモジュールを開発した。
RoadAnomaly, SMIYC, Fishyscapesバリデーションデータセットの実験により, 本手法の優れた性能が示された。
コードはhttps://github.com/HengGao12/MMRAS_plusで公開されている。
関連論文リスト
- Driver Assistance System Based on Multimodal Data Hazard Detection [0.0]
本稿では,マルチモーダル運転支援システムを提案する。
道路状況映像、ドライバーの顔映像、音声データを統合して、インシデント認識の精度を高める。
論文 参考訳(メタデータ) (2025-02-05T09:02:39Z) - DriveMM: All-in-One Large Multimodal Model for Autonomous Driving [63.882827922267666]
DriveMMは、画像やマルチビュービデオなどの多様なデータ入力を処理するために設計された、大規模なマルチモーダルモデルである。
我々は、6つの公開ベンチマークで評価を行い、未確認のデータセットでゼロショット転送を行い、DriveMMはすべてのタスクで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-12-10T17:27:32Z) - M2DA: Multi-Modal Fusion Transformer Incorporating Driver Attention for Autonomous Driving [11.36165122994834]
自律運転にドライバ注意(M2DA)を組み込んだ多モード核融合トランスを提案する。
ドライバーの注意を取り入れることで、自動運転車に人間のようなシーン理解能力を付与し、重要な領域を正確に特定し、安全性を確保する。
論文 参考訳(メタデータ) (2024-03-19T08:54:52Z) - Drive Anywhere: Generalizable End-to-end Autonomous Driving with
Multi-modal Foundation Models [114.69732301904419]
本稿では、画像とテキストで検索可能な表現から、運転決定を提供することができる、エンドツーエンドのオープンセット(環境/シーン)自律運転を適用するアプローチを提案する。
当社のアプローチでは, 多様なテストにおいて非並列的な結果を示すと同時に, アウト・オブ・ディストリビューションの状況において, はるかに高いロバスト性を実現している。
論文 参考訳(メタデータ) (2023-10-26T17:56:35Z) - UGainS: Uncertainty Guided Anomaly Instance Segmentation [80.12253291709673]
道路上の1つの予期せぬ物体が事故を引き起こしたり、怪我を負うことがある。
現在のアプローチでは、各ピクセルに異常スコアを割り当てることで、異常セグメンテーションに取り組む。
本稿では, 高精度な異常マスクを生成する手法を提案する。
論文 参考訳(メタデータ) (2023-08-03T20:55:37Z) - Dual-Modality Vehicle Anomaly Detection via Bilateral Trajectory Tracing [42.03797195839054]
本稿では,異常車両のロバスト検出のためのモジュール化手法を提案する。
車両検出・追跡モジュールには, YOLOv5とマルチスケールトラッキングを採用し, 異常の局所化を行った。
NVIDIA 2021 AI City Challengeのトラック4テストセットで行われた実験では、0.9302 F1スコアと3.4039ルート平均二乗誤差(RMSE)が得られた。
論文 参考訳(メタデータ) (2021-06-09T12:04:25Z) - Dynamic Fusion Module Evolves Drivable Area and Road Anomaly Detection:
A Benchmark and Algorithms [16.417299198546168]
移動ロボットにとって,乾燥領域と道路異常の同時検出は非常に重要である。
本稿では,まず,地上移動ロボットの乾性領域と道路異常検出ベンチマークを構築した。
本稿では,既存のデータ・フュージョン・ネットワークに容易にデプロイ可能なdynamic fusion module (dfm) と呼ばれる新しいモジュールを提案する。
論文 参考訳(メタデータ) (2021-03-03T14:38:27Z) - A Driving Behavior Recognition Model with Bi-LSTM and Multi-Scale CNN [59.57221522897815]
運転行動認識のための軌道情報に基づくニューラルネットワークモデルを提案する。
提案手法を公開BLVDデータセット上で評価し,満足な性能を実現する。
論文 参考訳(メタデータ) (2021-03-01T06:47:29Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。