論文の概要: Measuring Acoustics with Collaborative Multiple Agents
- arxiv url: http://arxiv.org/abs/2310.05368v1
- Date: Mon, 9 Oct 2023 02:58:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 07:59:45.376424
- Title: Measuring Acoustics with Collaborative Multiple Agents
- Title(参考訳): 協調型マルチエージェントによる音響計測
- Authors: Yinfeng Yu, Changan Chen, Lele Cao, Fangkai Yang, Fuchun Sun
- Abstract要約: 2つのロボットは、広い探索と正確な予測に報われながら、環境の音響を探索するように訓練されている。
予測誤差を最小化しながら,ロボットが協調して環境音響を探索し,移動することを実証する。
- 参考スコア(独自算出の注目度): 25.879534979760034
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As humans, we hear sound every second of our life. The sound we hear is often
affected by the acoustics of the environment surrounding us. For example, a
spacious hall leads to more reverberation. Room Impulse Responses (RIR) are
commonly used to characterize environment acoustics as a function of the scene
geometry, materials, and source/receiver locations. Traditionally, RIRs are
measured by setting up a loudspeaker and microphone in the environment for all
source/receiver locations, which is time-consuming and inefficient. We propose
to let two robots measure the environment's acoustics by actively moving and
emitting/receiving sweep signals. We also devise a collaborative multi-agent
policy where these two robots are trained to explore the environment's
acoustics while being rewarded for wide exploration and accurate prediction. We
show that the robots learn to collaborate and move to explore environment
acoustics while minimizing the prediction error. To the best of our knowledge,
we present the very first problem formulation and solution to the task of
collaborative environment acoustics measurements with multiple agents.
- Abstract(参考訳): 人間として、私たちは人生の1秒ごとに音を聞く。
耳に聞こえる音は、周囲の環境の音響に影響されることが多い。
例えば、広々としたホールはより残響に繋がる。
室内インパルス応答(英: Room Impulse Responses、RIR)は、環境音響をシーン幾何学、材料、およびソース/受信者の位置の関数として特徴付けるために一般的に用いられる。
伝統的に、RIRは、時間と効率の悪いすべてのソース/受信者の環境にスピーカとマイクを設置することで測定される。
本研究では,2つのロボットによる環境音の計測を活発に行うことを提案する。
また,この2つのロボットが環境の音響を探索し,広い探索と正確な予測に報われながら,協調的なマルチエージェントポリシーを考案した。
予測誤差を最小化しながら,ロボットが協調して環境音響を探索し,移動することを実証する。
そこで本研究では,複数のエージェントを用いた協調環境音響計測の課題に対して,最初の問題定式化と解法を提案する。
関連論文リスト
- ActiveRIR: Active Audio-Visual Exploration for Acoustic Environment Modeling [57.1025908604556]
環境音響モデルは、室内環境の物理的特性によって音がどのように変換されるかを表す。
本研究では,非マップ環境の環境音響モデルを効率的に構築する新しい課題であるアクティブ音響サンプリングを提案する。
我々は,音声・視覚センサストリームからの情報を利用してエージェントナビゲーションを誘導し,最適な音響データサンプリング位置を決定する強化学習ポリシーであるActiveRIRを紹介する。
論文 参考訳(メタデータ) (2024-04-24T21:30:01Z) - Neural Acoustic Context Field: Rendering Realistic Room Impulse Response
With Neural Fields [61.07542274267568]
このレターでは、音声シーンをパラメータ化するためのNACFと呼ばれる新しいニューラルネットワークコンテキストフィールドアプローチを提案する。
RIRのユニークな性質により、時間相関モジュールとマルチスケールエネルギー崩壊基準を設計する。
実験の結果,NACFは既存のフィールドベース手法よりも顕著なマージンで優れていた。
論文 参考訳(メタデータ) (2023-09-27T19:50:50Z) - Self-Supervised Visual Acoustic Matching [63.492168778869726]
音響マッチングは、ターゲットの音響環境に録音されたかのように、音声クリップを再合成することを目的としている。
そこで本研究では,対象のシーン画像と音声のみを含む,視覚的音響マッチングのための自己教師型アプローチを提案する。
提案手法は,条件付きGANフレームワークと新しいメトリクスを用いて,室内音響をアンタングル化し,音をターゲット環境に再合成する方法を共同で学習する。
論文 参考訳(メタデータ) (2023-07-27T17:59:59Z) - End-to-End Binaural Speech Synthesis [71.1869877389535]
本稿では,低ビットレート音声システムと強力なデコーダを組み合わせたエンドツーエンド音声合成システムを提案する。
実感的な聴覚シーンを作るために必要な環境効果を捉える上で, 対人的損失がもたらす効果を実証する。
論文 参考訳(メタデータ) (2022-07-08T05:18:36Z) - Few-Shot Audio-Visual Learning of Environment Acoustics [89.16560042178523]
室内インパルス応答 (RIR) 関数は、周囲の物理的環境がリスナーが聴く音をどう変換するかをキャプチャする。
我々は、空間で観測された画像とエコーのスパースセットに基づいて、RIRを推測する方法を探る。
3次元環境のための最先端オーディオ視覚シミュレータを用いた実験において,本手法が任意のRIRを生成できることを実証した。
論文 参考訳(メタデータ) (2022-06-08T16:38:24Z) - A Deep Reinforcement Learning Approach for Audio-based Navigation and
Audio Source Localization in Multi-speaker Environments [1.0527821704930371]
本研究では,3次元環境をナビゲートし,人間の音声源の位置を推定する問題に対して,深層強化学習を適用した。
我々はUnityゲームエンジンを用いて2つの仮想環境を作成し、その1つはオーディオベースのナビゲーション問題を示し、もう1つはオーディオソースのローカライゼーション問題を示す。
また、PPOオンライン強化学習アルゴリズムに基づく自律エージェントを作成し、これらの環境を解決するためのトレーニングを試みる。
論文 参考訳(メタデータ) (2021-10-25T10:18:34Z) - Image2Reverb: Cross-Modal Reverb Impulse Response Synthesis [0.3587367153279349]
音響環境の単一画像から可聴音インパルス応答を生成するために、エンドツーエンドのニューラルネットワークアーキテクチャを使用します。
多様な設定やフォーマットからもっともらしいインパルス応答を生成することで、我々のアプローチを実証する。
論文 参考訳(メタデータ) (2021-03-26T01:25:58Z) - Joint Blind Room Acoustic Characterization From Speech And Music Signals
Using Convolutional Recurrent Neural Networks [13.12834490248018]
残響時間、明瞭度、直接残響比は、残響環境を記述するために定義された音響パラメータである。
最近の音声と機械学習を組み合わせると、これらのパラメータは音声や音楽信号を使って盲目的に推定できる。
音声および/または音楽信号を用いた視覚的関節音響パラメータ推定のための頑健なエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T17:41:21Z) - Temporal-Spatial Neural Filter: Direction Informed End-to-End
Multi-channel Target Speech Separation [66.46123655365113]
ターゲット音声分離とは、混合信号からターゲット話者の音声を抽出することを指す。
主な課題は、複雑な音響環境とリアルタイム処理の要件である。
複数話者混合から対象音声波形を直接推定する時間空間ニューラルフィルタを提案する。
論文 参考訳(メタデータ) (2020-01-02T11:12:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。