論文の概要: Hearing What You Cannot See: Acoustic Vehicle Detection Around Corners
- arxiv url: http://arxiv.org/abs/2007.15739v2
- Date: Thu, 25 Feb 2021 10:47:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 15:07:20.187991
- Title: Hearing What You Cannot See: Acoustic Vehicle Detection Around Corners
- Title(参考訳): 耳に聞こえない音:コーナー周辺で音響車両を検知する
- Authors: Yannick Schulz, Avinash Kini Mattar, Thomas M. Hehn, Julian F. P.
Kooij
- Abstract要約: このような車両が視界に入る前に、音で接近する車両を検知できることが示される。
我々は,屋根付マイクロホンアレイを備えた研究車両を装着し,このセンサで収集したデータを示す。
車両が視認前に接近している方向を分類するための新しい方法が提示される。
- 参考スコア(独自算出の注目度): 5.4960756528016335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes to use passive acoustic perception as an additional
sensing modality for intelligent vehicles. We demonstrate that approaching
vehicles behind blind corners can be detected by sound before such vehicles
enter in line-of-sight. We have equipped a research vehicle with a roof-mounted
microphone array, and show on data collected with this sensor setup that wall
reflections provide information on the presence and direction of occluded
approaching vehicles. A novel method is presented to classify if and from what
direction a vehicle is approaching before it is visible, using as input
Direction-of-Arrival features that can be efficiently computed from the
streaming microphone array data. Since the local geometry around the
ego-vehicle affects the perceived patterns, we systematically study several
environment types, and investigate generalization across these environments.
With a static ego-vehicle, an accuracy of 0.92 is achieved on the hidden
vehicle classification task. Compared to a state-of-the-art visual detector,
Faster R-CNN, our pipeline achieves the same accuracy more than one second
ahead, providing crucial reaction time for the situations we study. While the
ego-vehicle is driving, we demonstrate positive results on acoustic detection,
still achieving an accuracy of 0.84 within one environment type. We further
study failure cases across environments to identify future research directions.
- Abstract(参考訳): 本研究は,知的車両に対する受動的音響知覚をセンサモダリティとして用いることを提案する。
視覚障害者が視線に進入する前に、音で接近する車両を検知できることを実証した。
我々は,屋根付マイクロホンアレイを備えた研究車両を設置し,壁面反射が接近する車両の存在と方向に関する情報を提供するためのセンサ装置を用いて収集したデータを示す。
ストリーミングマイクロホンアレイデータから効率的に計算可能な入力方向特徴として、車両が視認される前に接近している方向を分類する新しい方法を提案する。
Ego-vehicleの周囲の局所幾何学は知覚パターンに影響を与えるため、いくつかの環境タイプを体系的に研究し、これらの環境をまたいだ一般化について検討する。
静止車では、隠された車両分類タスクにおいて精度0.92を達成する。
最先端のビジュアル検出器や高速なr-cnnと比較すると、パイプラインは1秒以上前に同じ精度を実現し、研究する状況に重要な反応時間を提供します。
Ego-vehicle は運転中, 音波検出の正の成績を示し, 1つの環境タイプで0.84の精度を実現している。
今後の研究の方向性を見極めるため、環境をまたがる障害事例をさらに調査する。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Real-Time Idling Vehicles Detection using Combined Audio-Visual Deep
Learning [1.2733164388167968]
リアルタイム動的車両アイドリング検出アルゴリズムを提案する。
提案手法は、アイドリング車両を検出するためのマルチセンサ、オーディオ視覚、機械学習ワークフローに依存している。
我々はソルトレイクシティの病院の退院地点でリアルタイムでシステムをテストする。
論文 参考訳(メタデータ) (2023-05-23T23:35:43Z) - Exploring Contextual Representation and Multi-Modality for End-to-End
Autonomous Driving [58.879758550901364]
最近の知覚システムは、センサー融合による空間理解を高めるが、しばしば完全な環境コンテキストを欠いている。
我々は,3台のカメラを統合し,人間の視野をエミュレートするフレームワークを導入し,トップダウンのバードアイビューセマンティックデータと組み合わせて文脈表現を強化する。
提案手法は, オープンループ設定において0.67mの変位誤差を達成し, nuScenesデータセットでは6.9%の精度で現在の手法を上回っている。
論文 参考訳(メタデータ) (2022-10-13T05:56:20Z) - Automated Mobility Context Detection with Inertial Signals [7.71058263701836]
本研究の主な目的は,日常の運動機能の遠隔監視のためのコンテキスト検出について検討することである。
本研究の目的は、ウェアラブル加速度計でサンプリングされた慣性信号が、歩行関連活動を屋内または屋外に分類するための信頼性の高い情報を提供するかを理解することである。
論文 参考訳(メタデータ) (2022-05-16T09:34:43Z) - Self-Supervised Moving Vehicle Detection from Audio-Visual Cues [29.06503735149157]
本稿では,映像中の移動車両の検出に音声視覚的手がかりを活用する自己教師型アプローチを提案する。
提案手法では,画像と記録音声の対から画像中の車両を位置決めするのに対して,コントラスト学習を用いる。
そこで本研究では,教師が音声のみの検出モデルを監督するために,本モデルを利用できることを示す。
論文 参考訳(メタデータ) (2022-01-30T09:52:14Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Driving-Signal Aware Full-Body Avatars [49.89791440532946]
そこで本研究では,駆動信号を意識したフルボディアバターを構築するための学習ベース手法を提案する。
我々のモデルは条件付き変分オートエンコーダであり、不完全な駆動信号でアニメーションできる。
仮想テレプレゼンスのためのフルボディアニメーションの課題に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-05-21T16:22:38Z) - SSTN: Self-Supervised Domain Adaptation Thermal Object Detection for
Autonomous Driving [6.810856082577402]
コントラスト学習により可視スペクトル領域と赤外スペクトル領域の情報を最大化するための機能埋め込みを学習するためのディープニューラルネットワークSelf Supervised Thermal Network (SSTN)を提案する。
提案手法は、FLIR-ADASデータセットとKAISTマルチスペクトラルデータセットの2つの公開データセットで広く評価されている。
論文 参考訳(メタデータ) (2021-03-04T16:42:49Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。