論文の概要: Urban Rhapsody: Large-scale exploration of urban soundscapes
- arxiv url: http://arxiv.org/abs/2205.13064v1
- Date: Wed, 25 May 2022 22:02:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-27 15:43:44.944236
- Title: Urban Rhapsody: Large-scale exploration of urban soundscapes
- Title(参考訳): 都市rhapsody:都市音環境の大規模探査
- Authors: Joao Rulff, Fabio Miranda, Maryam Hosseini, Marcos Lage, Mark
Cartwright, Graham Dove, Juan Bello, Claudio T. Silva
- Abstract要約: 騒音は都市環境の主要な品質問題の一つである。
環境騒音レベルを高時間分解能で監視するために、低コストのセンサーを配置することができる。
それらが生成するデータの量とデータの複雑さは、重要な分析上の課題を生じさせる。
本稿では,最先端の音声表現,機械学習,視覚分析を組み合わせたフレームワークであるUrban Rhapsodyを提案する。
- 参考スコア(独自算出の注目度): 12.997538969557649
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Noise is one of the primary quality-of-life issues in urban environments. In
addition to annoyance, noise negatively impacts public health and educational
performance. While low-cost sensors can be deployed to monitor ambient noise
levels at high temporal resolutions, the amount of data they produce and the
complexity of these data pose significant analytical challenges. One way to
address these challenges is through machine listening techniques, which are
used to extract features in attempts to classify the source of noise and
understand temporal patterns of a city's noise situation. However, the
overwhelming number of noise sources in the urban environment and the scarcity
of labeled data makes it nearly impossible to create classification models with
large enough vocabularies that capture the true dynamism of urban soundscapes
In this paper, we first identify a set of requirements in the yet unexplored
domain of urban soundscape exploration. To satisfy the requirements and tackle
the identified challenges, we propose Urban Rhapsody, a framework that combines
state-of-the-art audio representation, machine learning, and visual analytics
to allow users to interactively create classification models, understand noise
patterns of a city, and quickly retrieve and label audio excerpts in order to
create a large high-precision annotated database of urban sound recordings. We
demonstrate the tool's utility through case studies performed by domain experts
using data generated over the five-year deployment of a one-of-a-kind sensor
network in New York City.
- Abstract(参考訳): 騒音は都市環境の主要な品質問題の一つである。
不快感に加えて、騒音は公衆衛生や教育のパフォーマンスに悪影響を及ぼす。
低コストのセンサは、周囲のノイズレベルを高い時間分解能で監視するためにデプロイできるが、それらが生み出すデータ量とデータの複雑さは、分析上の大きな課題をもたらす。
これらの課題に対処する1つの方法は、騒音源を分類し、都市の騒音状況の時間的パターンを理解するために、特徴を抽出するために使用される機械聴取技術である。
しかし,都市環境における圧倒的なノイズ源数とラベル付きデータの不足により,都市音環境の真のダイナミズムを捉えるのに十分な語彙を持つ分類モデルを作成することはほとんど不可能である。
そこで本稿では,その要求を満たし,特定課題に取り組むために,最先端の音声表現と機械学習,視覚分析を組み合わせたフレームワークであるurban rhapsodyを提案する。
筆者らは,ニューヨーク市におけるセンサネットワークの5年間の展開を通じて生成されたデータを用いて,ドメインの専門家によるケーススタディを通じてツールの有用性を実証する。
関連論文リスト
- LoRaWAN Based Dynamic Noise Mapping with Machine Learning for Urban Noise Enforcement [8.010966370223985]
広域にわたる長期騒音レベルを示す静的騒音マップは、自治体にとって貴重な都市計画資産である。
過渡的な振る舞いを頻繁に訴える非交通ノイズ源は、通常静的マップによって無視される。
本稿では,低消費電力広帯域ネットワーク(LPWAN)ベースのモノのインターネット(IoT)インフラストラクチャを用いて収集したデータを用いた動的ノイズマッピング手法を提案する。
論文 参考訳(メタデータ) (2024-07-30T21:40:12Z) - Towards better visualizations of urban sound environments: insights from interviews [1.2599533416395765]
我々は,そのような表現が重要視される都市住民を特定することによって,音源の表現の必要性を分析する。
本研究では, 産業と専門市民の騒音関連苦情, 市民の音質評価, 都市計画者への指導という, 音源表現の異なる3つの利用法について検討した。
視覚化は、対象のオーディエンスに適応したインジケータを使用し、データアクセシビリティーを可能にする。
論文 参考訳(メタデータ) (2024-06-11T07:39:48Z) - Real Acoustic Fields: An Audio-Visual Room Acoustics Dataset and Benchmark [65.79402756995084]
Real Acoustic Fields (RAF)は、複数のモードから実際の音響室データをキャプチャする新しいデータセットである。
RAFは密集した室内音響データを提供する最初のデータセットである。
論文 参考訳(メタデータ) (2024-03-27T17:59:56Z) - Explainable Artificial Intelligence driven mask design for
self-supervised seismic denoising [0.0]
自己教師付きコヒーレントノイズ抑圧法は、ノイズ統計の広範な知識を必要とする。
本稿では,視覚ネットワークであるブラックボックスの内部を見るために,説明可能な人工知能アプローチを提案する。
ランダムに選択された多数の入力画素に対するジャコビアン寄与の簡易な平均化が、最も効果的なマスクの指標であることを示す。
論文 参考訳(メタデータ) (2023-07-13T11:02:55Z) - Realistic Noise Synthesis with Diffusion Models [68.48859665320828]
Deep Image Denoisingモデルは、しばしば高品質なパフォーマンスのために大量のトレーニングデータに依存します。
本稿では,拡散モデル,すなわちRealistic Noise Synthesize Diffusor(RNSD)を用いて現実的な雑音を合成する新しい手法を提案する。
RNSDは、より現実的なノイズや空間的相関を複数の周波数で生成できるような、ガイド付きマルチスケールコンテンツを組み込むことができる。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - Learning to Generate Realistic Noisy Images via Pixel-level Noise-aware
Adversarial Training [50.018580462619425]
我々は,PNGAN(Pixel-level Noise-aware Generative Adrial Network)という新しいフレームワークを提案する。
PNGANは、トレーニング済みのリアルデノイザーを使用して、フェイク画像とリアルノイズ画像をほぼノイズのないソリューション空間にマッピングする。
より優れたノイズフィッティングを実現するため,ジェネレータとしてSimple Multi-versa-scale Network (SMNet) を提案する。
論文 参考訳(メタデータ) (2022-04-06T14:09:02Z) - Removing Noise from Extracellular Neural Recordings Using Fully
Convolutional Denoising Autoencoders [62.997667081978825]
ノイズの多いマルチチャネル入力からクリーンなニューロン活動信号を生成することを学習する完全畳み込みデノイングオートエンコーダを提案する。
シミュレーションデータを用いた実験結果から,提案手法はノイズ崩壊型ニューラルネットワークの品質を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-09-18T14:51:24Z) - Methodological Foundation of a Numerical Taxonomy of Urban Form [62.997667081978825]
本稿では, 生物系統学から得られた都市形態の数値分類法を提案する。
我々は同質の都市組織タイプを導出し、それら間の全体形態的類似性を決定することにより、都市形態の階層的分類を生成する。
フレーミングとプレゼンを行った後、プラハとアムステルダムの2都市でテストを行った。
論文 参考訳(メタデータ) (2021-04-30T12:47:52Z) - Urban Space Insights Extraction using Acoustic Histogram Information [13.808053718325628]
都市部における屋外活動の検知と降雨期間推定のための低コストアナログ音響センサの実装について検討した。
アナログ音響センサはヒストグラム形式で5分ごとにクラウドに送信され、100ms(10Hz)毎にサンプリングされる音データからなる。
論文 参考訳(メタデータ) (2020-12-10T07:21:34Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - SONYC-UST-V2: An Urban Sound Tagging Dataset with Spatiotemporal Context [32.84541094143274]
時空間情報を用いた都市音のタグ付けのためのデータセットを提案する。
このデータセットは、メタデータが都市サウンドタグの予測にどのように役立つかを調査する機会を提供する。
論文 参考訳(メタデータ) (2020-09-11T01:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。