論文の概要: On-chip Hyperspectral Image Segmentation with Fully Convolutional Networks for Scene Understanding in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2411.19274v1
- Date: Thu, 28 Nov 2024 17:10:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:22:58.753590
- Title: On-chip Hyperspectral Image Segmentation with Fully Convolutional Networks for Scene Understanding in Autonomous Driving
- Title(参考訳): 自律走行におけるシーン理解のための完全畳み込みネットワークを用いたオンチップハイパースペクトル画像分割
- Authors: Jon Gutiérrez-Zaballa, Koldo Basterretxea, Javier Echanobe, M. Victoria Martínez, Unai Martínez-Corral, Óscar Mata Carballeira, Inés del Campo,
- Abstract要約: 可視スペクトルを超えた運転シーンにおける異なる物体のスペクトル反射は、追加情報を与えることができる。
本研究では、高度運転支援システム(ADAS)におけるスナップショット、ビデオレートハイパースペクトルイメージング(HSI)カメラの利用について検討する。
標準の完全畳み込みネットワーク(FCN)モデルによって符号化された空間的特徴が,HSIセグメンテーションシステムの性能をどの程度向上させるかを分析する。
- 参考スコア(独自算出の注目度): 1.696186398088554
- License:
- Abstract: Most of current computer vision-based advanced driver assistance systems (ADAS) perform detection and tracking of objects quite successfully under regular conditions. However, under adverse weather and changing lighting conditions, and in complex situations with many overlapping objects, these systems are not completely reliable. The spectral reflectance of the different objects in a driving scene beyond the visible spectrum can offer additional information to increase the reliability of these systems, especially under challenging driving conditions. Furthermore, this information may be significant enough to develop vision systems that allow for a better understanding and interpretation of the whole driving scene. In this work we explore the use of snapshot, video-rate hyperspectral imaging (HSI) cameras in ADAS on the assumption that the near infrared (NIR) spectral reflectance of different materials can help to better segment the objects in real driving scenarios. To do this, we have used the HSI-Drive 1.1 dataset to perform various experiments on spectral classification algorithms. However, the information retrieval of hyperspectral recordings in natural outdoor scenarios is challenging, mainly because of deficient colour constancy and other inherent shortcomings of current snapshot HSI technology, which poses some limitations to the development of pure spectral classifiers. In consequence, in this work we analyze to what extent the spatial features codified by standard, tiny fully convolutional network (FCN) models can improve the performance of HSI segmentation systems for ADAS applications. The abstract above is truncated due to submission limits. For the full abstract, please refer to the published article.
- Abstract(参考訳): 現在のコンピュータビジョンベースの先進運転支援システム (ADAS) の多くは、通常の条件下でのオブジェクトの検出と追跡を成功裏に行う。
しかし、悪天候や照明条件の変化や、重なり合う物体が多い複雑な状況下では、これらのシステムは、完全には信頼できない。
可視スペクトルを超えた運転シーンにおける異なる物体のスペクトル反射は、特に困難な運転条件下で、これらのシステムの信頼性を高めるための追加情報を与えることができる。
さらに、この情報は、運転シーン全体の理解と解釈をより良くするための視覚システムを開発するのに十分重要であるかもしれない。
本研究では, 近赤外(NIR)スペクトル反射が実際の運転シナリオにおける物体の分割に有効であることを前提として, ADASにおけるスナップショット, ビデオレートハイパースペクトルイメージング(HSI)カメラの利用について検討する。
そこで我々は,HSI-Drive 1.1データセットを用いて,スペクトル分類アルゴリズムの様々な実験を行った。
しかし、自然の屋外シナリオにおけるハイパースペクトル記録の情報検索は、主に、純スペクトル分類器の開発にいくつかの制限をもたらす、現在のスナップショットHSI技術の欠点やその他の固有の欠点のために困難である。
そこで本研究では,標準の完全畳み込みネットワーク(FCN)モデルによって符号化された空間的特徴が,ADASアプリケーションのためのHSIセグメンテーションシステムの性能をどの程度向上させるかを分析する。
上述の要約は、提出制限のため取り消される。
完全な要約については、公開記事を参照のこと。
関連論文リスト
- Multi-Modality Driven LoRA for Adverse Condition Depth Estimation [61.525312117638116]
逆条件深さ推定のためのMulti-Modality Driven LoRA(MMD-LoRA)を提案する。
Prompt Driven Domain Alignment (PDDA) と Visual-Text Consistent Contrastive Learning (VTCCL) の2つのコアコンポーネントで構成されている。
nuScenesとOxford RobotCarデータセットの最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-12-28T14:23:58Z) - Exploring Fully Convolutional Networks for the Segmentation of Hyperspectral Imaging Applied to Advanced Driver Assistance Systems [1.8874331450711404]
高度運転支援システム(ADAS)におけるハイパースペクトルイメージング(HSI)の利用について検討する。
本稿では,完全な畳み込みネットワーク(FCN)をADAS用HSIの画像セグメント化に適用した実験結果について述べる。
我々はHSI-Drive v1.1データセットを使用し、実際の運転条件で記録されたラベル付き画像のセットを、小型のNIR-HSIカメラで提供する。
論文 参考訳(メタデータ) (2024-12-05T08:58:25Z) - Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - SEVD: Synthetic Event-based Vision Dataset for Ego and Fixed Traffic Perception [22.114089372056238]
我々は、SEVD、第一種マルチビューエゴ、固定認識合成イベントベースデータセットを提案する。
SEVDは、都市、郊外、田園部、ハイウェイのシーンに、様々な種類の物体がある。
本研究では,最新のイベントベース (RED, RVT) とフレームベース (YOLOv8) を用いて,トラフィック検出タスクのデータセットを評価する。
論文 参考訳(メタデータ) (2024-04-12T20:40:12Z) - Learning to Find Missing Video Frames with Synthetic Data Augmentation:
A General Framework and Application in Generating Thermal Images Using RGB
Cameras [0.0]
本稿では,センサフレームレートのミスマッチによるデータ不足の問題に対処する。
本研究では, 条件付き生成逆数ネットワーク(cGAN)を用いて, 合成的かつ現実的な熱画像を作成することを提案する。
論文 参考訳(メタデータ) (2024-02-29T23:52:15Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Multi-Attention Fusion Drowsy Driving Detection Model [1.2043574473965317]
我々は,Multi-Attention Fusion Drowsy Driving Detection Model (MAF)と呼ばれる新しいアプローチを導入する。
提案モデルでは96.8%の運転覚醒検出精度が得られた。
論文 参考訳(メタデータ) (2023-12-28T14:53:32Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Attention Guided Network for Salient Object Detection in Optical Remote
Sensing Images [16.933770557853077]
光リモートセンシング画像(RSI-SOD)における局所物体検出は非常に難しい作業である。
本稿では,光学RSIにおけるSODのための新しい注意誘導ネットワーク(AGNet)を提案する。
AGNetは、他の最先端の手法と比較して、競争力がある。
論文 参考訳(メタデータ) (2022-07-05T01:01:03Z) - Exploring Thermal Images for Object Detection in Underexposure Regions
for Autonomous Driving [67.69430435482127]
アンダーエクスポージャー地域は、安全な自動運転のための周囲の完全な認識を構築するのに不可欠である。
サーマルカメラが利用可能になったことで、他の光学センサーが解釈可能な信号を捉えていない地域を探索するための重要な代替手段となった。
本研究は,可視光画像から熱画像へ学習を伝達するためのスタイル伝達手法を用いたドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-01T09:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。