論文の概要: Deep Convolutional Neural Network for Roadway Incident Surveillance
Using Audio Data
- arxiv url: http://arxiv.org/abs/2203.06059v1
- Date: Wed, 9 Mar 2022 13:42:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:47:14.992014
- Title: Deep Convolutional Neural Network for Roadway Incident Surveillance
Using Audio Data
- Title(参考訳): オーディオデータを用いた道路インシデント監視のための深層畳み込みニューラルネットワーク
- Authors: Zubayer Islam, Mohamed Abdel-Aty
- Abstract要約: 衝突事故の特定と予測は、輸送システムの安全状態を理解する上で重要な役割を担っている。
本稿では,クラッシュイベントを正確に識別する新たなセンサユニットを提案する。
事故、タイヤスキー、ホーン、サイレンの音などの4つの事象は、道路の危険を示すために正確に識別することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Crash events identification and prediction plays a vital role in
understanding safety conditions for transportation systems. While existing
systems use traffic parameters correlated with crash data to classify and train
these models, we propose the use of a novel sensory unit that can also
accurately identify crash events: microphone. Audio events can be collected and
analyzed to classify events such as crash. In this paper, we have demonstrated
the use of a deep Convolutional Neural Network (CNN) for road event
classification. Important audio parameters such as Mel Frequency Cepstral
Coefficients (MFCC), log Mel-filterbank energy spectrum and Fourier Spectrum
were used as feature set. Additionally, the dataset was augmented with more
sample data by the use of audio augmentation techniques such as time and pitch
shifting. Together with the feature extraction this data augmentation can
achieve reasonable accuracy. Four events such as crash, tire skid, horn and
siren sounds can be accurately identified giving indication of a road hazard
that can be useful for traffic operators or paramedics. The proposed
methodology can reach accuracy up to 94%. Such audio systems can be implemented
as a part of an Internet of Things (IoT) platform that can complement
video-based sensors without complete coverage.
- Abstract(参考訳): 衝突事故の特定と予測は、輸送システムの安全状態を理解する上で重要な役割を果たす。
既存のシステムは、これらのモデルの分類と訓練に、クラッシュデータと相関するトラフィックパラメータを用いるが、我々は、クラッシュイベントを正確に識別できる新しい感覚ユニット(マイクロホン)を提案する。
オーディオイベントは、クラッシュなどのイベントを分類するために収集および分析することができる。
本稿では,道路イベントの分類に深層畳み込みニューラルネットワーク(CNN)を用いることを実証した。
MFCC(Mel Frequency Cepstral Coefficients)、Mel-filterbank Energy spectrum、Fourier Spectrumといった重要なオーディオパラメータを特徴セットとして用いた。
さらに、データセットは時間やピッチシフトといったオーディオ拡張技術を使用して、より多くのサンプルデータで拡張された。
特徴抽出とともに、このデータ拡張は妥当な精度を達成することができる。
事故、タイヤスキー、ホーン、サイレン音などの4つの事象は、交通事業者や救急隊員にとって有用な道路の危険を示すために正確に識別することができる。
提案手法は最大94%の精度が得られる。
このようなオーディオシステムは、完全なカバレッジなしでビデオベースのセンサーを補完できるIoT(Internet of Things)プラットフォームの一部として実装することができる。
関連論文リスト
- DiffSED: Sound Event Detection with Denoising Diffusion [70.18051526555512]
生成学習の観点からSED問題を再構築する。
具体的には,騒音拡散過程において,雑音のある提案から音の時間境界を生成することを目的としている。
トレーニング中は,ノイズの多い遅延クエリを基本バージョンに変換することで,ノイズ発生過程の逆転を学習する。
論文 参考訳(メタデータ) (2023-08-14T17:29:41Z) - A Semi-Automated Corner Case Detection and Evaluation Pipeline [0.0]
知覚システムは、ディープニューラルネットワークをトレーニングするために大きなデータセットを必要とする。
これらのデータセットのどの部分がコーナーケースを記述しているかを知ることは、ネットワークのトレーニングやテストにおいて有利である。
本稿では,集合的知識記述を拡張KI Absicherungオントロジーに変換するパイプラインを提案する。
論文 参考訳(メタデータ) (2023-05-25T12:06:43Z) - Driver Maneuver Detection and Analysis using Time Series Segmentation
and Classification [7.413735713939367]
本稿では,自然主義運転環境下での車両遠隔計測データから車両の操作を自動的に検出する手法を実装した。
本研究の目的は、自然主義駆動学習ビデオのフレーム・バイ・フレームアノテーションのためのエンドツーエンドパイプラインを開発することである。
論文 参考訳(メタデータ) (2022-11-10T03:38:50Z) - Deep Spectro-temporal Artifacts for Detecting Synthesized Speech [57.42110898920759]
本稿では,トラック1(低品質フェイク音声検出)とトラック2(部分フェイク音声検出)の総合評価を行う。
本稿では, 原時間信号, スペクトル特性, 深層埋没特性を用いて, 分光時相アーティファクトを検出した。
我々はそれぞれ1番線と2番線で4位と5位にランクインした。
論文 参考訳(メタデータ) (2022-10-11T08:31:30Z) - Disentangled Representation Learning for RF Fingerprint Extraction under
Unknown Channel Statistics [77.13542705329328]
本稿では,まず,不整合表現学習(DRL)の枠組みを提案し,入力信号を逆学習によりデバイス関連成分とデバイス関連成分に分解する。
提案フレームワークにおける暗黙的なデータ拡張は、デバイス非関連チャネル統計の過度な適合を避けるために、RFF抽出器に正規化を課す。
実験により、DR-RFFと呼ばれる提案手法は、未知の複雑な伝播環境に対する一般化可能性の観点から従来の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-08-04T15:46:48Z) - Audio-visual Representation Learning for Anomaly Events Detection in
Crowds [119.72951028190586]
本稿では,音声と視覚信号の同時モデリングにおけるマルチモーダル学習の活用を試みる。
監視シーンにおける合成音声視覚データセットであるSHADEデータセットについて実験を行った。
音声信号の導入は,異常事象の検出性能を効果的に向上し,他の最先端手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-10-28T02:42:48Z) - Robust Feature Learning on Long-Duration Sounds for Acoustic Scene
Classification [54.57150493905063]
音響シーン分類(ASC)は、所定の音声信号が記録されるシーンの種類(環境)を特定することを目的としている。
我々は,CNNを訓練するための頑健な特徴学習(RFL)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:33:05Z) - PILOT: Introducing Transformers for Probabilistic Sound Event
Localization [107.78964411642401]
本稿では,受信したマルチチャンネル音声信号の時間的依存性を自己アテンション機構によってキャプチャする,トランスフォーマーに基づく新しい音声イベント定位フレームワークを提案する。
このフレームワークは, 公開されている3つの音声イベントローカライズデータセットを用いて評価し, 局所化誤差と事象検出精度の点で最先端の手法と比較した。
論文 参考訳(メタデータ) (2021-06-07T18:29:19Z) - Automatic Detection of Major Freeway Congestion Events Using Wireless
Traffic Sensor Data: A Machine Learning Approach [0.0]
本稿では,高速道路交通渋滞事象の確実な検出と特徴付けのための機械学習に基づくアプローチを提案する。
速度データは最初10時間のスライディングウィンドウでタイムウインドウされ、3つのニューラルネットワークに入力される。
スライディングウィンドウは、各スローダウンイベントを複数回キャプチャし、渋滞検出の信頼性を高める。
論文 参考訳(メタデータ) (2020-07-09T21:38:45Z) - CURE Dataset: Ladder Networks for Audio Event Classification [15.850545634216484]
約300万人が聴覚障害を抱えており、周囲で起きている出来事を認識できない。
本稿では,難聴者に対して最も関連性の高い特定の音声イベントをキュレートしたCUREデータセットを確立する。
論文 参考訳(メタデータ) (2020-01-12T09:35:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。