論文の概要: When Pamplona sounds different: the soundscape transformation of San Fermin through intelligent acoustic sensors and a sound repository
- arxiv url: http://arxiv.org/abs/2512.17740v1
- Date: Fri, 19 Dec 2025 16:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.477674
- Title: When Pamplona sounds different: the soundscape transformation of San Fermin through intelligent acoustic sensors and a sound repository
- Title(参考訳): パンプローナの音が違うとき--インテリジェント音響センサと音響レポジトリによるサンフェルミンの音環境変換
- Authors: Amaia Sagasti, Frederic Font,
- Abstract要約: 本研究では,サンフェルミン祭における都市音環境の変化を解析するために,パンプローナ市に設置した安価な音響センサを用いた。
その結果, 音圧レベルが著しく上昇し, 音環境が変化し, 音環境が人間の活動に関連する音に支配されることが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a use-case of a network of low-cost acoustic smart sensors deployed in the city of Pamplona to analyse changes in the urban soundscape during the San Fermin Festival. The sensors were installed in different areas of the city before, during, and after the event, capturing continuous acoustic data. Our analysis reveals a significant transformation in the city's sonic environment during the festive period: overall sound pressure levels increase significantly, soundscape patterns change, and the acoustic landscape becomes dominated by sounds associated with human activity. These findings highlight the potential of distributed smart acoustic monitoring systems to characterize the temporal dynamics of urban soundscapes and underscore how the large-scale event of San Fermin drastically reshapes the overall acoustic dynamics of the city of Pamplona. Additionally, to complement the objective measurements, a curated collection of real San Fermin sound recordings has been created and made publicly available, preserving the festival's unique sonic heritage.
- Abstract(参考訳): 本研究では,サンフェルミン祭における都市音環境の変化を解析するために,パンプローナ市に展開する安価な音響センサネットワークの利用例を示す。
センサーは、イベント前後に市内の様々な場所に設置され、連続した音響データを収集した。
その結果, 音圧レベルが著しく上昇し, 音環境が変化し, 音環境が人間の活動に関連する音に支配されることが明らかとなった。
これらの知見は,サンフェルミンの大規模イベントがパンプローナ市全体の音響力学を劇的に改善する様子を,都市音景観の時間的ダイナミクスを特徴付ける分散型スマート音響モニタリングシステムの可能性を強調した。
さらに、客観的な測定を補完するために、本物のサン・フェルミンの録音のキュレートされたコレクションが作成され、公開され、フェスティバルのユニークなソニックな遺産が保存されている。
関連論文リスト
- Towards better visualizations of urban sound environments: insights from interviews [1.2599533416395765]
我々は,そのような表現が重要視される都市住民を特定することによって,音源の表現の必要性を分析する。
本研究では, 産業と専門市民の騒音関連苦情, 市民の音質評価, 都市計画者への指導という, 音源表現の異なる3つの利用法について検討した。
視覚化は、対象のオーディエンスに適応したインジケータを使用し、データアクセシビリティーを可能にする。
論文 参考訳(メタデータ) (2024-06-11T07:39:48Z) - ActiveRIR: Active Audio-Visual Exploration for Acoustic Environment Modeling [57.1025908604556]
環境音響モデルは、室内環境の物理的特性によって音がどのように変換されるかを表す。
本研究では,非マップ環境の環境音響モデルを効率的に構築する新しい課題であるアクティブ音響サンプリングを提案する。
我々は,音声・視覚センサストリームからの情報を利用してエージェントナビゲーションを誘導し,最適な音響データサンプリング位置を決定する強化学習ポリシーであるActiveRIRを紹介する。
論文 参考訳(メタデータ) (2024-04-24T21:30:01Z) - BAT: Learning to Reason about Spatial Sounds with Large Language Models [45.757161909533714]
本稿では,空間的シーン解析モデルの音知覚能力と大規模言語モデル(LLM)の自然言語推論能力を組み合わせたBATを提案する。
実験では,空間音知覚と推論の両方において,BATの優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-02T17:34:53Z) - Neural Acoustic Context Field: Rendering Realistic Room Impulse Response
With Neural Fields [61.07542274267568]
このレターでは、音声シーンをパラメータ化するためのNACFと呼ばれる新しいニューラルネットワークコンテキストフィールドアプローチを提案する。
RIRのユニークな性質により、時間相関モジュールとマルチスケールエネルギー崩壊基準を設計する。
実験の結果,NACFは既存のフィールドベース手法よりも顕著なマージンで優れていた。
論文 参考訳(メタデータ) (2023-09-27T19:50:50Z) - Self-Supervised Visual Acoustic Matching [63.492168778869726]
音響マッチングは、ターゲットの音響環境に録音されたかのように、音声クリップを再合成することを目的としている。
そこで本研究では,対象のシーン画像と音声のみを含む,視覚的音響マッチングのための自己教師型アプローチを提案する。
提案手法は,条件付きGANフレームワークと新しいメトリクスを用いて,室内音響をアンタングル化し,音をターゲット環境に再合成する方法を共同で学習する。
論文 参考訳(メタデータ) (2023-07-27T17:59:59Z) - Urban Rhapsody: Large-scale exploration of urban soundscapes [12.997538969557649]
騒音は都市環境の主要な品質問題の一つである。
環境騒音レベルを高時間分解能で監視するために、低コストのセンサーを配置することができる。
それらが生成するデータの量とデータの複雑さは、重要な分析上の課題を生じさせる。
本稿では,最先端の音声表現,機械学習,視覚分析を組み合わせたフレームワークであるUrban Rhapsodyを提案する。
論文 参考訳(メタデータ) (2022-05-25T22:02:36Z) - Learning Neural Acoustic Fields [110.22937202449025]
音が物理的場面でどのように伝搬するかを暗黙的に表現するニューラル・アコースティック・フィールズ(NAF)を導入する。
シーン内の音響伝搬を線形時間不変系としてモデル化することにより、NAFは全てのエミッタとリスナーの位置ペアを連続的にマッピングすることを学ぶ。
NAFの連続的な性質により、任意の場所でリスナーの空間音響を描画することができ、新しい場所での音の伝搬を予測できることを実証する。
論文 参考訳(メタデータ) (2022-04-04T17:59:37Z) - Modelling Animal Biodiversity Using Acoustic Monitoring and Deep
Learning [0.0]
本稿では,機械学習の最先端技術を用いて,時系列音声信号から特徴を自動的に抽出する手法について概説する。
得られた鳥の歌はメル周波数ケプストラム(MFC)を用いて処理され、後に多層パーセプトロン(MLP)を用いて分類される特徴を抽出する。
提案手法は感度0.74,特異度0.92,精度0.74で有望な結果を得た。
論文 参考訳(メタデータ) (2021-03-12T13:50:31Z) - Urban Space Insights Extraction using Acoustic Histogram Information [13.808053718325628]
都市部における屋外活動の検知と降雨期間推定のための低コストアナログ音響センサの実装について検討した。
アナログ音響センサはヒストグラム形式で5分ごとにクラウドに送信され、100ms(10Hz)毎にサンプリングされる音データからなる。
論文 参考訳(メタデータ) (2020-12-10T07:21:34Z) - SONYC-UST-V2: An Urban Sound Tagging Dataset with Spatiotemporal Context [32.84541094143274]
時空間情報を用いた都市音のタグ付けのためのデータセットを提案する。
このデータセットは、メタデータが都市サウンドタグの予測にどのように役立つかを調査する機会を提供する。
論文 参考訳(メタデータ) (2020-09-11T01:19:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。