論文の概要: ANAVI: Audio Noise Awareness using Visuals of Indoor environments for NAVIgation
- arxiv url: http://arxiv.org/abs/2410.18932v1
- Date: Thu, 24 Oct 2024 17:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-25 12:50:41.502795
- Title: ANAVI: Audio Noise Awareness using Visuals of Indoor environments for NAVIgation
- Title(参考訳): ANAVI:ナヴィゲーションのための室内環境の視覚を用いた騒音認識
- Authors: Vidhi Jain, Rishi Veerapaneni, Yonatan Bisk,
- Abstract要約: より静かなロボット経路計画のためのNAVIgationのための室内視覚を用いた騒音認識手法を提案する。
我々は、模擬住宅の異なるリスナー場所で「インパルス」の音の大きさのデータを生成し、音響騒音予測器(ANP)を訓練する。
動作音響とANPを統合し,車輪付きロボット(Hello Robot Stretch)と脚付きロボット(Unitree Go2)を用いて,これらのロボットが環境の騒音制約に適合するように実験を行った。
- 参考スコア(独自算出の注目度): 26.460679530665487
- License:
- Abstract: We propose Audio Noise Awareness using Visuals of Indoors for NAVIgation for quieter robot path planning. While humans are naturally aware of the noise they make and its impact on those around them, robots currently lack this awareness. A key challenge in achieving audio awareness for robots is estimating how loud will the robot's actions be at a listener's location? Since sound depends upon the geometry and material composition of rooms, we train the robot to passively perceive loudness using visual observations of indoor environments. To this end, we generate data on how loud an 'impulse' sounds at different listener locations in simulated homes, and train our Acoustic Noise Predictor (ANP). Next, we collect acoustic profiles corresponding to different actions for navigation. Unifying ANP with action acoustics, we demonstrate experiments with wheeled (Hello Robot Stretch) and legged (Unitree Go2) robots so that these robots adhere to the noise constraints of the environment. See code and data at https://anavi-corl24.github.io/
- Abstract(参考訳): より静かなロボット経路計画のためのNAVIgationのための室内視覚を用いた騒音認識手法を提案する。
人間は周囲の騒音やその影響を自然に認識しているが、ロボットは現在この認識を欠いている。
ロボットの音声認識を実現する上で重要な課題は、ロボットの動作がリスナーの位置にどの程度大音量であるかを推定することである。
音は室内の形状や材料組成に依存するため,室内環境の視覚的観察から受動的に音を知覚するようにロボットを訓練する。
この目的のために、シミュレーションされた住宅の異なるリスナー場所で「インパルス」がどれほど大きな音を鳴らすかのデータを生成し、音響騒音予測器(ANP)を訓練する。
次に、ナビゲーションのための異なる動作に対応する音響プロファイルを収集する。
動作音響とANPを統合し,車輪付きロボット(Hello Robot Stretch)と脚付きロボット(Unitree Go2)を用いて,これらのロボットが環境の騒音制約に適合するように実験を行った。
コードとデータはhttps://anavi-corl24.github.io/にある。
関連論文リスト
- Reacting like Humans: Incorporating Intrinsic Human Behaviors into NAO through Sound-Based Reactions to Fearful and Shocking Events for Enhanced Sociability [0.0]
人間は、突然大きな音に遭遇した時に自然反応を示し、それを刺激したり怖がったりします。
この研究では、環境を感知するマルチモーダルシステムが設計され、突然大きな音が鳴り響くと自然の人間の恐怖反応が現れる。
これらの有効な動きと推論は、本質的な人間の反応を模倣し、ロボットの社会性を高めることができる。
論文 参考訳(メタデータ) (2023-12-12T19:06:44Z) - The Un-Kidnappable Robot: Acoustic Localization of Sneaking People [25.494191141691616]
室内で動く人々の360度RGBデータと組み合わせて、高品質な4チャンネルオーディオのロボットデータセットを収集する。
音声のみを使用して、近くに動く人物と位置を予測できるモデルを訓練する。
本手法をロボットに実装することにより,受動的音声センサのみを用いて,一人の人物が静かに動くことを追跡できる。
論文 参考訳(メタデータ) (2023-10-05T17:59:55Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Sonicverse: A Multisensory Simulation Platform for Embodied Household
Agents that See and Hear [65.33183123368804]
Sonicverseは、オーディオ・ビジュアル・シミュレーションを統合したマルチセンサー・シミュレーション・プラットフォームである。
音声と視覚の知覚を必要とするAIタスクを具現化する。
Sonicverseで訓練されたエージェントは、現実世界の環境で音声視覚ナビゲーションをうまく実行することができる。
論文 参考訳(メタデータ) (2023-06-01T17:24:01Z) - Read the Room: Adapting a Robot's Voice to Ambient and Social Contexts [1.0732907121422146]
本稿では,社会的適切さと環境意識を認知するためのロボット音声スタイルの選択に向けたプロセスと結果について述べる。
N=120人の被験者による実験の結果、異なる環境下での音声スタイルの選択がロボットの知覚的インテリジェンスに影響を及ぼすという証拠が得られた。
論文 参考訳(メタデータ) (2022-05-10T15:10:23Z) - Active Audio-Visual Separation of Dynamic Sound Sources [93.97385339354318]
本稿では,カメラとマイクロホンを制御するための動作ポリシーを学習する,新しいトランスフォーマーメモリを備えた強化学習エージェントを提案する。
本モデルでは,時間変化のある音声ターゲットの連続的な分離を行うために,効率的な振る舞いを学習できることが示される。
論文 参考訳(メタデータ) (2022-02-02T02:03:28Z) - Move2Hear: Active Audio-Visual Source Separation [90.16327303008224]
対象物からの音をより効果的に分離するために、エージェントがインテリジェントに動く必要があるアクティブオーディオビジュアルソース分離問題を紹介します。
エージェントのカメラとマイクロホン配置を時間とともに制御する移動ポリシーを訓練する強化学習アプローチを紹介します。
音源分離のための最大ペイオフで最小の動作シーケンスを見つけるモデルの能力を実証します。
論文 参考訳(メタデータ) (2021-05-15T04:58:08Z) - Self-supervised reinforcement learning for speaker localisation with the
iCub humanoid robot [58.2026611111328]
人の顔を見ることは、ノイズの多い環境での音声のフィルタリングに人間が依存するメカニズムの1つである。
スピーカーに目を向けるロボットを持つことは、挑戦的な環境でのASRのパフォーマンスに恩恵をもたらす可能性がある。
本稿では,人間の初期発達に触発された自己指導型強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-12T18:02:15Z) - Swoosh! Rattle! Thump! -- Actions that Sound [38.59779002672538]
この研究は、音とロボットの動きの相互作用に関する最初の大規模な研究である。
ロボットプラットフォームであるTilt-Botを使って、60のオブジェクト上で15,000のインタラクションが可能な、利用可能な最大のサウンドアクションビジョンデータセットを作成します。
例えば、音は金属のドライバーと金属のレンチを区別することができる。
論文 参考訳(メタデータ) (2020-07-03T17:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。