論文の概要: HSI-Drive v2.0: More Data for New Challenges in Scene Understanding for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2411.17530v1
- Date: Tue, 26 Nov 2024 15:45:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-27 13:33:10.126978
- Title: HSI-Drive v2.0: More Data for New Challenges in Scene Understanding for Autonomous Driving
- Title(参考訳): HSI-Drive v2.0: 自動運転のシーン理解における新たな課題
- Authors: Jon Gutiérrez-Zaballa, Koldo Basterretxea, Javier Echanobe, M. Victoria Martínez, Unai Martínez-Corral,
- Abstract要約: ハイパースペクトルイメージング(HSI)を用いた自動走行システム(ADS)の開発を目的としたHSI-Driveデータセットの更新版を提案する。
v2.0バージョンには、冬と秋に実際の運転シナリオで録画されたビデオの新しい注釈付き画像が含まれている。
新しいv2.0データセットでトレーニングされたモデルの強化性能を示すとともに,v1.1データセットで得られた結果に対して達成された改善点を示す。
- 参考スコア(独自算出の注目度): 1.2582887633807602
- License:
- Abstract: We present the updated version of the HSI-Drive dataset aimed at developing automated driving systems (ADS) using hyperspectral imaging (HSI). The v2.0 version includes new annotated images from videos recorded during winter and fall in real driving scenarios. Added to the spring and summer images included in the previous v1.1 version, the new dataset contains 752 images covering the four seasons. In this paper, we show the improvements achieved over previously published results obtained on the v1.1 dataset, showcasing the enhanced performance of models trained on the new v2.0 dataset. We also show the progress made in comprehensive scene understanding by experimenting with more capable image segmentation models. These models include new segmentation categories aimed at the identification of essential road safety objects such as the presence of vehicles and road signs, as well as highly vulnerable groups like pedestrians and cyclists. In addition, we provide evidence of the performance and robustness of the models when applied to segmenting HSI video sequences captured in various environments and conditions. Finally, for a correct assessment of the results described in this work, the constraints imposed by the processing platforms that can sensibly be deployed in vehicles for ADS must be taken into account. Thus, and although implementation details are out of the scope of this paper, we focus our research on the development of computationally efficient, lightweight ML models that can eventually operate at high throughput rates. The dataset and some examples of segmented videos are available in https://ipaccess.ehu.eus/HSI-Drive/.
- Abstract(参考訳): ハイパースペクトルイメージング(HSI)を用いた自動走行システム(ADS)の開発を目的としたHSI-Driveデータセットの更新版を提案する。
v2.0バージョンには、冬と秋に実際の運転シナリオで録画されたビデオの新しい注釈付き画像が含まれている。
以前のv1.1バージョンに含まれる春と夏の画像に加え、新しいデータセットには4つの季節をカバーする752の画像が含まれている。
本稿では,v1.1データセットで得られた結果に対する改善点を示すとともに,新しいv2.0データセットでトレーニングされたモデルの強化性能を示す。
また,より有能な画像セグメンテーションモデルを用いて,総合的なシーン理解の進展を示す。
これらのモデルには、車両や道路標識の存在などの重要な道路安全オブジェクトの識別を目的とした、新たなセグメンテーションカテゴリや、歩行者やサイクリストのような非常に脆弱なグループが含まれる。
さらに,様々な環境や環境下で撮影されたHSIビデオシーケンスのセグメント化に適用したモデルの性能とロバスト性を示す。
最後に、本研究で説明した結果を正しく評価するには、ADS用車両に適切に展開可能な処理プラットフォームが課す制約を考慮する必要がある。
したがって、実装の詳細は論文の範囲外であるが、我々は計算効率が良く軽量なMLモデルの開発に焦点をあて、最終的に高いスループットで動作させることができる。
セグメンテーションされたビデオのデータセットといくつかの例はhttps://ip access.ehu.eus/HSI-Drive/.comで公開されている。
関連論文リスト
- An object detection approach for lane change and overtake detection from motion profiles [3.545178658731506]
本稿では,移動プロファイルに適用した新しい物体検出手法を用いて,オーバーテイクおよびレーン変更動作の同定を行う。
モデルをトレーニングし、テストするために、ヘテロジニアスなダシュカムビデオから得られたモーションプロファイル画像の内部データセットを作成しました。
標準のオブジェクト検出アプローチに加えて、CoordConvolutionレイヤを含めることで、モデルの性能がさらに向上することを示す。
論文 参考訳(メタデータ) (2025-02-06T17:36:35Z) - Label Correction for Road Segmentation Using Road-side Cameras [0.44241702149260353]
既存の道路カメラインフラを利用して、様々な気象条件の道路データを自動的に収集する。
道路カメラの半自動アノテーション手法を提案する。
冬期にフィンランド全土の927台のカメラから収集した路面カメラデータを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-02-03T11:52:23Z) - StreetCrafter: Street View Synthesis with Controllable Video Diffusion Models [59.55232046525733]
我々は,LDARポイントクラウドレンダリングをピクセルレベルの条件として利用する,制御可能なビデオ拡散モデルであるStreetCrafterを紹介する。
さらに、画素レベルのLiDAR条件を利用することで、ターゲットシーンに対して正確なピクセルレベルの編集を行うことができる。
我々のモデルは視点変化を柔軟に制御し、レンダリング領域を満たすためのビューを拡大する。
論文 参考訳(メタデータ) (2024-12-17T18:58:55Z) - On-chip Hyperspectral Image Segmentation with Fully Convolutional Networks for Scene Understanding in Autonomous Driving [1.696186398088554]
可視スペクトルを超えた運転シーンにおける異なる物体のスペクトル反射は、追加情報を与えることができる。
本研究では、高度運転支援システム(ADAS)におけるスナップショット、ビデオレートハイパースペクトルイメージング(HSI)カメラの利用について検討する。
標準の完全畳み込みネットワーク(FCN)モデルによって符号化された空間的特徴が,HSIセグメンテーションシステムの性能をどの程度向上させるかを分析する。
論文 参考訳(メタデータ) (2024-11-28T17:10:50Z) - WayveScenes101: A Dataset and Benchmark for Novel View Synthesis in Autonomous Driving [4.911903454560829]
WayveScenes101は、新しいビュー合成において、コミュニティが技術の状態を前進させるのを助けるために設計されたデータセットである。
データセットは、幅広い環境条件と運転シナリオにわたる101の運転シーンで構成されている。
論文 参考訳(メタデータ) (2024-07-11T08:29:45Z) - Beyond the Mud: Datasets and Benchmarks for Computer Vision in Off-Road
Racing [38.719032057630024]
オフロードバイクレーサーナンバーデータセットとMuddy Racerの再iDentificationデータセットは、オフロード競技中に6300枚以上の画像が撮影された。
オフザシェルフモデルはトランスファーが悪く、テキストスポッティングでは15%のエンドツーエンド(E2E)F1スコア、ReIDでは33%のランク1精度に達した。
微調整が大幅に改善され、E2EテキストスポッティングのF1スコアが53%、ReIDのランク1精度が79%に向上した。
論文 参考訳(メタデータ) (2024-02-12T19:42:05Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - SODA10M: Towards Large-Scale Object Detection Benchmark for Autonomous
Driving [94.11868795445798]
我々は,SODA10Mという名の自律走行用大規模物体検出ベンチマークをリリースし,1000万枚の未ラベル画像と6つの代表対象カテゴリをラベル付けした20K画像を含む。
多様性を向上させるために、画像は32の異なる都市で、1フレームあたり10秒毎に異なる気象条件、期間、場所のシーンで収集される。
我々は、既存の教師付き最先端検出モデル、一般的な自己監督型および半教師付きアプローチ、および将来のモデルの開発方法に関するいくつかの知見について、広範な実験と詳細な分析を行った。
論文 参考訳(メタデータ) (2021-06-21T13:55:57Z) - Understanding Road Layout from Videos as a Whole [82.30800791500869]
我々はこれをトップビューの道路属性予測問題として定式化し、その目的は各フレームの属性を正確かつ一貫して予測することである。
我々は、ビデオにおけるカメラモーションの活用と、長期ビデオ情報の導入という3つの新しい側面を生かした。
論文 参考訳(メタデータ) (2020-07-02T00:59:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。