論文の概要: FIN: Fast Inference Network for Map Segmentation
- arxiv url: http://arxiv.org/abs/2510.00651v1
- Date: Wed, 01 Oct 2025 08:29:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.46577
- Title: FIN: Fast Inference Network for Map Segmentation
- Title(参考訳): FIN: マップセグメンテーションのための高速推論ネットワーク
- Authors: Ruan Bispo, Tim Brophy, Reenu Mohandas, Anthony Scanlan, Ciarán Eising,
- Abstract要約: 自動運転車のマルチセンサー融合は、複数の知覚タスクに対してより堅牢な代替手段を提供するために、より一般的になりつつある。
カメラレーダー融合は、カメラからのリッチな意味情報とレーダからの正確な距離測定を組み合わせることで、コスト効率の良いソリューションを提供する。
この研究は、アクラフルベブ空間におけるカメラとレーダーを用いた、新しく効率的なマップセグメンテーションアーキテクチャを提示する。
- 参考スコア(独自算出の注目度): 2.6630680698825633
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-sensor fusion in autonomous vehicles is becoming more common to offer a more robust alternative for several perception tasks. This need arises from the unique contribution of each sensor in collecting data: camera-radar fusion offers a cost-effective solution by combining rich semantic information from cameras with accurate distance measurements from radar, without incurring excessive financial costs or overwhelming data processing requirements. Map segmentation is a critical task for enabling effective vehicle behaviour in its environment, yet it continues to face significant challenges in achieving high accuracy and meeting real-time performance requirements. Therefore, this work presents a novel and efficient map segmentation architecture, using cameras and radars, in the \acrfull{bev} space. Our model introduces a real-time map segmentation architecture considering aspects such as high accuracy, per-class balancing, and inference time. To accomplish this, we use an advanced loss set together with a new lightweight head to improve the perception results. Our results show that, with these modifications, our approach achieves results comparable to large models, reaching 53.5 mIoU, while also setting a new benchmark for inference time, improving it by 260\% over the strongest baseline models.
- Abstract(参考訳): 自動運転車のマルチセンサー融合は、複数の知覚タスクに対してより堅牢な代替手段を提供するために、より一般的になりつつある。
カメラとレーダーの融合は、カメラからのリッチなセマンティック情報とレーダからの正確な距離測定を組み合わせることで、過剰な財政的コストや圧倒的なデータ処理要求を発生させることなく、コスト効率の良いソリューションを提供する。
マップセグメンテーションは、その環境で効果的な車両動作を可能にするための重要なタスクである。
したがって、この研究は、カメラとレーダーを用いた、新規で効率的なマップセグメンテーションアーキテクチャを \acrfull{bev} 空間に提示する。
本モデルでは,高精度,クラスごとのバランス,推論時間といった側面を考慮したリアルタイムマップセグメンテーションアーキテクチャを提案する。
これを実現するために、我々は新しい軽量ヘッドと共に高度な損失セットを使用し、知覚結果を改善する。
以上の結果から,提案手法は大規模モデルに匹敵する結果を達成し,53.5 mIoUに達するとともに,推定時間に対する新しいベンチマークを設定し,最強のベースラインモデルよりも260 %向上することを示した。
関連論文リスト
- Multi-Representation Adapter with Neural Architecture Search for Efficient Range-Doppler Radar Object Detection [16.02875655103583]
本稿では、レンジドップラーレーダマップのための効率的な物体検出モデルを提案する。
まず,多表現のRDレーダマップ,すなわちヒートマップとグレースケールの画像を表現し,高レベルなオブジェクトときめ細かいテクスチャの特徴を収集する。
我々は,高性能を保ちながらモデルの効率をさらに向上するために,ワンショットニューラルアーキテクチャ探索法を用いる。
論文 参考訳(メタデータ) (2025-09-01T09:06:53Z) - FLARES: Fast and Accurate LiDAR Multi-Range Semantic Segmentation [52.89847760590189]
3Dシーンの理解は、自動運転における重要な課題である。
近年の手法では、レンジビュー表現を利用して処理効率を向上している。
範囲ビューに基づくLiDARセマンティックセマンティックセグメンテーションのためのワークフローを再設計する。
論文 参考訳(メタデータ) (2025-02-13T12:39:26Z) - EEPNet: Efficient Edge Pixel-based Matching Network for Cross-Modal Dynamic Registration between LiDAR and Camera [6.817117737186402]
自動運転車が複雑な環境の中で軌道を正確に知覚し、分析し、計画するためには、マルチセンサー融合が不可欠である。
画像にLiDAR点雲を登録する現在の手法は、固有の違いと計算オーバーヘッドのために大きな課題に直面している。
我々は、ポイントクラウド投影から得られたモダリティマップを利用して、登録精度を向上させる高度ネットワークであるEEPNetを提案する。
論文 参考訳(メタデータ) (2024-09-28T10:28:28Z) - Cross-Cluster Shifting for Efficient and Effective 3D Object Detection
in Autonomous Driving [69.20604395205248]
本稿では,自律運転における3次元物体検出のための3次元点検出モデルであるShift-SSDを提案する。
我々は、ポイントベース検出器の表現能力を解き放つために、興味深いクロスクラスタシフト操作を導入する。
我々は、KITTI、ランタイム、nuScenesデータセットに関する広範な実験を行い、Shift-SSDの最先端性能を実証した。
論文 参考訳(メタデータ) (2024-03-10T10:36:32Z) - FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Real-time Semantic Segmentation with Fast Attention [94.88466483540692]
本稿では,高解像度画像と映像をリアルタイムにセマンティックセグメンテーションするための新しいアーキテクチャを提案する。
提案したアーキテクチャは我々の空間的注意の速さに依存しており、これは一般的な自己注意機構の単純かつ効率的な修正である。
複数のデータセットに対する結果から,既存の手法に比べて精度と速度が向上し,優れた性能を示した。
論文 参考訳(メタデータ) (2020-07-07T22:37:16Z) - Real-Time High-Performance Semantic Image Segmentation of Urban Street
Scenes [98.65457534223539]
都市景観のロバストなセマンティックセマンティックセグメンテーションのためのリアルタイムDCNNに基づく高速DCNN手法を提案する。
提案手法は, 51.0 fps と 39.3 fps の推論速度で, 平均 73.6% と平均 68.0% (mIoU) の精度を実現する。
論文 参考訳(メタデータ) (2020-03-11T08:45:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。