論文の概要: Learning spatial hearing via innate mechanisms
- arxiv url: http://arxiv.org/abs/2001.10605v2
- Date: Wed, 16 Apr 2025 20:39:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-20 14:18:59.352859
- Title: Learning spatial hearing via innate mechanisms
- Title(参考訳): 自然メカニズムによる空間聴力の学習
- Authors: Yang Chu, Wayne Luk, Dan Goodman,
- Abstract要約: 左と右を区別できるような単純な固有回路からの近似的なフィードバックは、正確なフルレンジ空間聴覚マップを学習するのに十分であることを示す。
このような学習の基盤となる可能性のある神経機構がいくつかあり、複数のメカニズムが互いに存在して相互作用する可能性があると仮説を立てています。
- 参考スコア(独自算出の注目度): 5.020887000087355
- License:
- Abstract: The acoustic cues used by humans and other animals to localise sounds are subtle, and change during and after development. This means that we need to constantly relearn or recalibrate the auditory spatial map throughout our lifetimes. This is often thought of as a "supervised" learning process where a "teacher" (for example, a parent, or your visual system) tells you whether or not you guessed the location correctly, and you use this information to update your map. However, there is not always an obvious teacher (for example in babies or blind people). Using computational models, we showed that approximate feedback from a simple innate circuit, such as that can distinguish left from right (e.g. the auditory orienting response), is sufficient to learn an accurate full-range spatial auditory map. Moreover, using this mechanism in addition to supervised learning can more robustly maintain the adaptive neural representation. We find several possible neural mechanisms that could underlie this type of learning, and hypothesise that multiple mechanisms may be present and interact with each other. We conclude that when studying spatial hearing, we should not assume that the only source of learning is from the visual system or other supervisory signal. Further study of the proposed mechanisms could allow us to design better rehabilitation programmes to accelerate relearning/recalibration of spatial maps.
- Abstract(参考訳): 人間や他の動物が音をローカライズするために使用する音響的手がかりは微妙であり、発達の前後で変化する。
これは、私たちの生涯を通して、聴覚空間マップを絶えず再学習し、再調整する必要があることを意味します。
これは、しばしば「教師付き」学習プロセスとして考えられ、例えば「教師」(例えば、親や視覚システム)が、その場所を正しく推測したかどうかを教え、この情報を使って地図を更新する。
しかし、必ずしも明らかな教師(例えば、赤ちゃんや盲目の人)はいない。
計算モデルを用いて、左と右を区別できるような単純な固有回路からの近似的なフィードバック(例えば、聴覚指向応答)は、正確な全空間空間聴覚マップを学習するのに十分であることを示した。
さらに、教師付き学習に加えてこのメカニズムを用いることで、適応型ニューラル表現をより堅牢に維持することができる。
このような学習の基盤となる可能性のある神経機構がいくつかあり、複数のメカニズムが互いに存在して相互作用する可能性があると仮説を立てています。
我々は,空間聴力の学習において,学習源は視覚システムや他の監視信号のみであると仮定するべきではないと結論づけた。
提案手法のさらなる研究により、空間地図の再学習・再校正を加速するために、より良いリハビリテーションプログラムを設計できる可能性がある。
関連論文リスト
- CANDERE-COACH: Reinforcement Learning from Noisy Feedback [12.232688822099325]
CANDERE-COACHアルゴリズムは、非最適教師によるノイズフィードバックから学習することができる。
本稿では,教師のフィードバックの最大40%が誤りであった場合,RLエージェントが学習を成功させるためのノイズフィルタリング機構を提案する。
論文 参考訳(メタデータ) (2024-09-23T20:14:12Z) - Learning to Separate Voices by Spatial Regions [5.483801693991577]
イヤホンや補聴器などの応用における音声分離の問題点を考察する。
比較的クリーンなパーソナライズされた信号を抽出するために、イヤホンからの過剰な音声を前処理する2段階の自己教師型フレームワークを提案する。
結果は、一般的な教師付きアプローチよりもパーソナライズの重要性を強調し、有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-07-09T06:25:01Z) - Modeling the Repetition-based Recovering of Acoustic and Visual Sources
with Dendritic Neurons [5.306881553301636]
自然の聴覚環境において、音響信号は異なる音源の時間重畳から生じる。
ヒトの実験では、聴覚系は音響入力に埋め込まれた繰り返しパターンとして音源を識別できることが示されている。
音響刺激の混合配列のブラインドソース分離を行うための生物学的にインスパイアされた計算モデルを提案する。
論文 参考訳(メタデータ) (2022-01-16T19:35:59Z) - Binaural SoundNet: Predicting Semantics, Depth and Motion with Binaural
Sounds [118.54908665440826]
人間は視覚的および/または聴覚的手がかりを用いて、オブジェクトを頑健に認識し、ローカライズすることができる。
この研究は、純粋に音に基づくシーン理解のためのアプローチを開発する。
視覚的および音声的手がかりの共存は、監督伝達に活用される。
論文 参考訳(メタデータ) (2021-09-06T22:24:00Z) - A Deep Reinforcement Learning Approach to Audio-Based Navigation in a
Multi-Speaker Environment [1.0527821704930371]
環境からの生の聴覚感覚情報のみを使用して、2次元空間をナビゲートできる自律エージェントを作成します。
私たちの実験は、エージェントが部屋の$ N$事前定義されたスピーカーのセットの中で特定のターゲットスピーカーを首尾よく識別できることを示しています。
エージェントは、話者ピッチシフトに対して堅牢であり、各話者に対して限られた数の訓練発話が利用できる場合でも、環境をナビゲートすることができる。
論文 参考訳(メタデータ) (2021-05-10T16:26:47Z) - Visually Informed Binaural Audio Generation without Binaural Audios [130.80178993441413]
記録のない効果的なパイプラインであるPseudoBinauralを提案します。
本研究では球面高調波分解と頭部関連インパルス応答(hrir)を用いて空間位置と受信音声の関係を同定する。
当社の記録のないパイプラインは、データセット間の評価において大きな安定性を示し、主観的な好みで匹敵するパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-04-13T13:07:33Z) - Learning in the Wild with Incremental Skeptical Gaussian Processes [27.700043183428807]
ガウス過程(GP)を中心とした懐疑的学習の再考を提案する。
我々の再設計はISGPと呼ばれ、GPが供給する不確実性推定を活用して、ラベル付けと矛盾するクエリをよりよく割り当てる。
合成および実世界のデータを用いた実験では、ISGPは様々なノイズレベルにおいてうまく機能し、新しいクラスが観測される。
論文 参考訳(メタデータ) (2020-11-02T12:19:47Z) - Noisy Agents: Self-supervised Exploration by Predicting Auditory Events [127.82594819117753]
本稿では, エージェントが行動の因果的影響を理解することを奨励する, 強化学習(Reinforcement Learning, RL)の本質的なモチベーションを提案する。
ニューラルネットワークを用いて聴覚事象を予測し、予測誤差を本質的な報奨として利用し、RL探索を誘導する。
Atariゲームの実験結果から、我々の新しい本質的な動機は、最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:59:08Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z) - Does Visual Self-Supervision Improve Learning of Speech Representations
for Emotion Recognition? [63.564385139097624]
本研究は,音声表現の学習を指導するために,顔再構成による視覚的自己監督について検討する。
提案した視覚的・音声的自己監督のマルチタスクの組み合わせは,よりリッチな特徴を学習する上で有益であることを示す。
学習した音声表現を、離散的感情認識、連続的感情認識、自動音声認識のために評価する。
論文 参考訳(メタデータ) (2020-05-04T11:33:40Z) - Semantic Object Prediction and Spatial Sound Super-Resolution with
Binaural Sounds [106.87299276189458]
人間は視覚的および聴覚的手がかりを統合することで、オブジェクトを強く認識し、ローカライズすることができる。
この研究は、純粋に音に基づく、音生成対象の密接なセマンティックラベリングのためのアプローチを開発する。
論文 参考訳(メタデータ) (2020-03-09T15:49:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。