論文の概要: Singapore Soundscape Site Selection Survey (S5): Identification of
Characteristic Soundscapes of Singapore via Weighted k-means Clustering
- arxiv url: http://arxiv.org/abs/2206.03112v1
- Date: Tue, 7 Jun 2022 08:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-09 01:07:42.642653
- Title: Singapore Soundscape Site Selection Survey (S5): Identification of
Characteristic Soundscapes of Singapore via Weighted k-means Clustering
- Title(参考訳): シンガポールのサウンドスケープサイト選択調査(S5):軽量k平均クラスタリングによるシンガポールの特徴的サウンドスケープの同定
- Authors: Kenneth Ooi, Bhan Lam, Joo Young Hong, Karn N. Watcharasupat,
Zhen-Ting Ong, Woon-Seng Gan
- Abstract要約: 任意の知覚特性を持つ特徴音像をピンポイントするロバストな参加者主導手法を提案する。
シンガポールの音環境は,ISO 12913-2の知覚モデルにおいて,「鮮度」と「イベントフルネス」の軸から発生する知覚的四分詞にまたがる。
- 参考スコア(独自算出の注目度): 12.643937940475334
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The ecological validity of soundscape studies usually rests on a choice of
soundscapes that are representative of the perceptual space under
investigation. For example, a soundscape pleasantness study might investigate
locations with soundscapes ranging from "pleasant" to "annoying". The choice of
soundscapes is typically researcher-led, but a participant-led process can
reduce selection bias and improve result reliability. Hence, we propose a
robust participant-led method to pinpoint characteristic soundscapes possessing
arbitrary perceptual attributes. We validate our method by identifying
Singaporean soundscapes spanning the perceptual quadrants generated from the
"Pleasantness" and "Eventfulness" axes of the ISO 12913-2 circumplex model of
soundscape perception, as perceived by local experts. From memory and
experience, 67 participants first selected locations corresponding to each
perceptual quadrant in each major planning region of Singapore. We then
performed weighted k-means clustering on the selected locations, with weights
for each location derived from previous frequencies and durations spent in each
location by each participant. Weights hence acted as proxies for participant
confidence. In total, 62 locations were thereby identified as suitable
locations with characteristic soundscapes for further research utilizing the
ISO 12913-2 perceptual quadrants. Audio-visual recordings and acoustic
characterization of the soundscapes will be made in a future study.
- Abstract(参考訳): 音環境研究の生態学的妥当性は通常、調査対象の知覚空間を表す音環境の選択に依存する。
例えば、サウンドスケープのプレザントネス研究は、サウンドスケープの場所を「不快」から「不快」まで調査する可能性がある。
サウンドスケープの選択は通常研究者主導であるが、参加者主導のプロセスは選択バイアスを減らし、結果の信頼性を向上させる。
そこで本稿では,任意の知覚特性を持つ特徴音像をピンポイントするロバストな参加者主導手法を提案する。
現地の専門家が認識したiso 12913-2外接モデル「音環境知覚」の「満足度」と「事象性」軸から生じる知覚四角形にまたがるシンガポールの音響景観を同定し,本手法の検証を行った。
記憶と経験から、67人の参加者がまずシンガポールの各主要計画地域において、知覚的四分節に対応する場所を選択した。
次に,選択した位置を重み付けしたk-meansクラスタリングを行い,各位置の既往の頻度と各参加者が各場所に費やした時間から各位置の重み付けを行った。
そのため、ウェイツは自信を持つためのプロキシとして機能した。
これにより,ISO 12913-2の知覚的四角形を用いたさらなる研究のために,62箇所が特徴的な音環境を持つ適切な場所として同定された。
音声の映像記録と音響的特徴付けは,今後の研究で実現される予定である。
関連論文リスト
- AV-GS: Learning Material and Geometry Aware Priors for Novel View Acoustic Synthesis [62.33446681243413]
ビュー音響合成は、音源が3Dシーンで出力するモノのオーディオを考慮し、任意の視点でオーディオを描画することを目的としている。
既存の手法では、音声合成の条件として視覚的手がかりを利用するため、NeRFベースの暗黙モデルが提案されている。
本研究では,シーン環境全体を特徴付ける新しいオーディオ・ビジュアル・ガウス・スプレイティング(AV-GS)モデルを提案する。
AV-GSが実世界のRWASやシミュレーションベースのSoundSpacesデータセットの既存の代替品よりも優れていることを検証する。
論文 参考訳(メタデータ) (2024-06-13T08:34:12Z) - Towards better visualizations of urban sound environments: insights from interviews [1.2599533416395765]
我々は,そのような表現が重要視される都市住民を特定することによって,音源の表現の必要性を分析する。
本研究では, 産業と専門市民の騒音関連苦情, 市民の音質評価, 都市計画者への指導という, 音源表現の異なる3つの利用法について検討した。
視覚化は、対象のオーディエンスに適応したインジケータを使用し、データアクセシビリティーを可能にする。
論文 参考訳(メタデータ) (2024-06-11T07:39:48Z) - Audio Simulation for Sound Source Localization in Virtual Evironment [0.0]
信号遮断環境における非視線局所化は、難しいが関連する問題である。
本研究では,物理基底音の伝搬シミュレーションと機械学習手法を利用して,仮想環境内の特定の場所に音源を配置することを目的とする。
論文 参考訳(メタデータ) (2024-04-02T03:18:28Z) - Contrastive Environmental Sound Representation Learning [6.85316573653194]
我々は,自己監督型コントラスト手法と浅い1次元CNNを利用して,明示的なアノテーションを使わずに独特の音声特徴(音響表現)を抽出する。
生音声波形とスペクトログラムの両方を用いて、所定の音声の表現を生成し、提案した学習者が音声入力の種類に依存しないかどうかを評価する。
論文 参考訳(メタデータ) (2022-07-18T16:56:30Z) - Learning to Separate Voices by Spatial Regions [5.483801693991577]
イヤホンや補聴器などの応用における音声分離の問題点を考察する。
比較的クリーンなパーソナライズされた信号を抽出するために、イヤホンからの過剰な音声を前処理する2段階の自己教師型フレームワークを提案する。
結果は、一般的な教師付きアプローチよりもパーソナライズの重要性を強調し、有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-07-09T06:25:01Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Visual Sound Localization in the Wild by Cross-Modal Interference
Erasing [90.21476231683008]
現実のシナリオでは、オーディオは通常、オフスクリーンサウンドとバックグラウンドノイズによって汚染される。
本研究では,音声-視覚的音源定位問題に対処する干渉消去(IEr)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-13T21:06:19Z) - Class-aware Sounding Objects Localization via Audiovisual Correspondence [51.39872698365446]
複雑な視覚的シナリオにおける音像の局所化と認識を行うための2段階の学習フレームワークを提案する。
我々は、カクテルパーティーのシナリオでクラス認識オブジェクトのローカライズマップを生成し、サイレントエリアの抑制にオーディオ視覚対応を使用する。
実写ビデオと合成ビデオの両方の実験では、オブジェクトのローカライズと認識だけでなく、サイレントビデオのフィルタリングにも優れていることが示されている。
論文 参考訳(メタデータ) (2021-12-22T09:34:33Z) - Combating Noise: Semi-supervised Learning by Region Uncertainty
Quantification [55.23467274564417]
現在の手法は、擬似ラベルによって生成されるノイズの多い領域によって容易に妨げられる。
領域の不確実性を定量化して雑音耐性半教師付き学習を提案する。
PASCAL VOCとMS COCOの併用実験により,本手法の異常な性能を実証した。
論文 参考訳(メタデータ) (2021-11-01T13:23:42Z) - Discriminative Sounding Objects Localization via Self-supervised
Audiovisual Matching [87.42246194790467]
自己教師付きクラス認識オブジェクトの定位を行うための2段階学習フレームワークを提案する。
我々は,無声オブジェクトをフィルタリングし,異なるクラスの音響オブジェクトの位置を指摘するのに,我々のモデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-10-12T05:51:55Z) - Foreground-Background Ambient Sound Scene Separation [0.0]
本稿では,特徴量正規化方式と,背景統計を収集する予備的ネットワークを備えたディープラーニングに基づく分離フレームワークを提案する。
我々は様々な信号対雑音比で、見知らぬ音のクラスを混合した広範囲な実験を行った。
論文 参考訳(メタデータ) (2020-05-11T06:59:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。