論文の概要: Keep off the Grass: Permissible Driving Routes from Radar with Weak
Audio Supervision
- arxiv url: http://arxiv.org/abs/2005.05175v2
- Date: Tue, 22 Sep 2020 07:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-04 20:48:54.814699
- Title: Keep off the Grass: Permissible Driving Routes from Radar with Weak
Audio Supervision
- Title(参考訳): 耳障りなオーディオ・スーパービジョンによるレーダーからの許容走行経路
- Authors: David Williams, Daniele De Martini, Matthew Gadd, Letizia Marchegiani,
Paul Newman
- Abstract要約: FMCWスキャニングレーダに基づく知覚システムは, 環境条件に関わらず, 完全な性能を維持している。
音響分類器からの計測,GPS,および地形ラベルを組み合わせることで,ロボットの地形ラベル付き軌道を構築することができる。
カリキュラム学習手法を用いて、初期ラベリングを超える一般化を行うために、レーダセグメンテーションネットワークを訓練する。
- 参考スコア(独自算出の注目度): 21.222339098241616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable outdoor deployment of mobile robots requires the robust
identification of permissible driving routes in a given environment. The
performance of LiDAR and vision-based perception systems deteriorates
significantly if certain environmental factors are present e.g. rain, fog,
darkness. Perception systems based on FMCW scanning radar maintain full
performance regardless of environmental conditions and with a longer range than
alternative sensors. Learning to segment a radar scan based on driveability in
a fully supervised manner is not feasible as labelling each radar scan on a
bin-by-bin basis is both difficult and time-consuming to do by hand. We
therefore weakly supervise the training of the radar-based classifier through
an audio-based classifier that is able to predict the terrain type underneath
the robot. By combining odometry, GPS and the terrain labels from the audio
classifier, we are able to construct a terrain labelled trajectory of the robot
in the environment which is then used to label the radar scans. Using a
curriculum learning procedure, we then train a radar segmentation network to
generalise beyond the initial labelling and to detect all permissible driving
routes in the environment.
- Abstract(参考訳): 移動ロボットの信頼性の高い屋外展開には、所定の環境における許容走行経路の堅牢な識別が必要である。
LiDARと視覚に基づく知覚システムの性能は、特定の環境要因が存在する場合、例えば雨、霧、暗闇が著しく低下する。
fmcwスキャニングレーダに基づく知覚システムは、環境条件に関わらず、また代替センサーよりも長い範囲でフルパフォーマンスを維持する。
完全に教師された方法での運転性に基づくレーダースキャンのセグメンテーションの学習は、各レーダースキャンをビン・バイ・ビンベースでラベル付けすることは困難かつ時間を要する。
そこで我々は,ロボットの下の地形タイプを予測できるオーディオベース分類器を用いて,レーダベース分類器の訓練を弱く監督する。
音響分類器からの計測,GPS,および地形ラベルを組み合わせることで,ロボットの地形ラベル付き軌道を環境内に構築し,レーダスキャンのラベル付けを行うことができる。
カリキュラム学習手法を用いて,レーダセグメンテーションネットワークを訓練し,初期ラベリングを超えて環境中の全ての許容走行経路を検出する。
関連論文リスト
- Radar Fields: Frequency-Space Neural Scene Representations for FMCW Radar [62.51065633674272]
本稿では,アクティブレーダイメージア用に設計されたニューラルシーン再構成手法であるRadar Fieldsを紹介する。
提案手法では,暗黙的ニューラルジオメトリとリフレクタンスモデルを用いて,暗黙的な物理インフォームドセンサモデルを構築し,生のレーダ測定を直接合成する。
本研究では,密集した車両やインフラを備えた都市景観を含む,多様な屋外シナリオにおける手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-05-07T20:44:48Z) - Bootstrapping Autonomous Driving Radars with Self-Supervised Learning [13.13679517730015]
レーダモデルの訓練は、大規模レーダデータの注釈付けのコストと難しさによって妨げられている。
本研究では,未ラベルのレーダデータを事前学習型レーダのみの埋め込みに活用して,自律型認識タスクを実現するための自己教師型学習フレームワークを提案する。
下流オブジェクト検出に使用する場合、提案するセルフスーパービジョンフレームワークが、最先端の教師付きベースラインの精度をmAPで5.8%向上できることを実証する。
論文 参考訳(メタデータ) (2023-12-07T18:38:39Z) - Echoes Beyond Points: Unleashing the Power of Raw Radar Data in
Multi-modality Fusion [74.84019379368807]
本稿では,既存のレーダ信号処理パイプラインをスキップするEchoFusionという新しい手法を提案する。
具体的には、まずBird's Eye View (BEV)クエリを生成し、次にレーダーから他のセンサーとフューズに対応するスペクトル特徴を取ります。
論文 参考訳(メタデータ) (2023-07-31T09:53:50Z) - NVRadarNet: Real-Time Radar Obstacle and Free Space Detection for
Autonomous Driving [57.03126447713602]
本稿では,自動車のRADARセンサを用いて動的障害物や乾燥可能な自由空間を検出するディープニューラルネットワーク(DNN)を提案する。
ネットワークは組み込みGPU上でリアルタイムよりも高速に動作し、地理的領域にわたって優れた一般化を示す。
論文 参考訳(メタデータ) (2022-09-29T01:30:34Z) - Unsupervised Domain Adaptation across FMCW Radar Configurations Using
Margin Disparity Discrepancy [17.464353263281907]
本研究では、ディープラーニングの人間活動分類の文脈において、レーダー構成にまたがる非教師なし領域適応の問題を考える。
我々は、コンピュータビジョンの分野ですでに成功している、Margin Disparity Discrepancyの理論に触発されたテクニックに焦点を当てた。
我々の実験は、この手法をレーダーデータに拡張し、同じ分類問題に対する少数ショット教師付きアプローチに匹敵する精度を達成した。
論文 参考訳(メタデータ) (2022-03-09T09:11:06Z) - Deep Instance Segmentation with High-Resolution Automotive Radar [2.167586397005864]
本稿では,レーダ検出点を用いた2つの効率的な分割法を提案する。
1つは、PointNet++フレームワークを使用してエンドツーエンドのディープラーニング駆動方式で実装されている。
もう一つは、セマンティック情報を用いたレーダー検出点のクラスタリングに基づいている。
論文 参考訳(メタデータ) (2021-10-05T01:18:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - Complex-valued Convolutional Neural Networks for Enhanced Radar Signal
Denoising and Interference Mitigation [73.0103413636673]
本稿では,レーダセンサ間の相互干渉問題に対処するために,複合価値畳み込みニューラルネットワーク(CVCNN)を提案する。
CVCNNはデータ効率を高め、ネットワークトレーニングを高速化し、干渉除去時の位相情報の保存を大幅に改善する。
論文 参考訳(メタデータ) (2021-04-29T10:06:29Z) - Radar Artifact Labeling Framework (RALF): Method for Plausible Radar
Detections in Datasets [2.5899040911480187]
粗いレーダ点雲のラベル付けのためのクロスセンサレーダアーチファクトラベルフレームワーク(RALF)を提案する。
RALFは、レーダーの生検出のための可視性ラベルを提供し、アーティファクトとターゲットを区別する。
半手動ラベル付き地上真理データセットの3.28cdot106$ポイントの誤差測定値を評価することにより,結果を検証する。
論文 参考訳(メタデータ) (2020-12-03T15:11:31Z) - RadarNet: Exploiting Radar for Robust Perception of Dynamic Objects [73.80316195652493]
我々は、自動運転車の文脈における認識のためにRadarを利用する問題に取り組む。
我々は、LiDARとRadarの両方のセンサーを知覚に利用した新しいソリューションを提案する。
RadarNetと呼ばれる我々のアプローチは、ボクセルベースの早期核融合と注意に基づく後期核融合を特徴としている。
論文 参考訳(メタデータ) (2020-07-28T17:15:02Z) - RSS-Net: Weakly-Supervised Multi-Class Semantic Segmentation with FMCW
Radar [26.56755178602111]
我々は、このタスクに使用される従来のセンサーよりも、より長い範囲で動作し、悪天候や照明条件に対してかなり堅牢なレーダーを提唱する。
RGBカメラやLiDARセンサーとレーダースキャンを関連付け,これまでに収集された最大の都市自治データセットを利用する。
本稿では,マルチチャンネル・レーダ・スキャン・インプットを用いて,短命でダイナミックなシーン・オブジェクトを扱うネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-02T11:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。