論文の概要: Sound-first immersive training for blind and low-vision learners: A simulation flow for safe, standardized orientation, mobility, and daily living practice
- arxiv url: http://arxiv.org/abs/2602.19554v1
- Date: Mon, 23 Feb 2026 06:55:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.706315
- Title: Sound-first immersive training for blind and low-vision learners: A simulation flow for safe, standardized orientation, mobility, and daily living practice
- Title(参考訳): 盲目・低視野学習者のための音第一没入訓練:安全、標準化された指向性、移動性、日常生活実践のためのシミュレーションフロー
- Authors: Daniel A. Muñoz,
- Abstract要約: 本技術ノートは, 空間音響と音素化をアクションとフィードバックの主チャンネルとして利用する, 音質第一の没入型トレーニングフローを提示する。
安全な反復を可能にすること、インストラクターの負担を軽減し、リハビリテーションセンター全体でより明確な基準をサポートすることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Orientation and mobility (O&M) instruction for blind and low-vision learners is effective but difficult to standardize and repeat at scale due to the reliance on instructor availability, physical mock-ups, and variable real-world outdoor conditions. This Technical Note presents a sound-first immersive training flow that uses spatial audio and sonification as the primary channel for action and feedback in pre-street O&M and daily-living practice. The approach specifies parameterized scenario templates (e.g., signalized street crossing, public transport boarding, and kitchen tasks), a compact and consistent cue vocabulary with clear spectral placement and timing to mitigate masking, and a lightweight safety protocol enabling graded exposure, content warnings, seated starts, opt-outs, and structured debriefs. The system assumes a head-mounted device with high-quality binaural rendering and head tracking; 3D scene geometry is used as an invisible scaffold to anchor sources, trigger events, define risk/guidance volumes, and govern physically plausible motion without visuals. Session difficulty is shaped via cue density, event tempo, and task complexity while preserving cue consistency to promote transfer across scenarios. The specification aims to enable safe repetition, reduce instructor burden, and support clearer standards across rehabilitation centers, aligning with evidence that audio-first interaction is essential for blind and visually impaired users and addressing gaps in HRTF personalization, evaluation standards, and accessibility integration. Although no behavioral outcomes are reported here, this implementable flow consolidates auditory science with center-ready design, offering a pragmatic foundation for standardized evaluation and future comparative studies.
- Abstract(参考訳): 視覚障害者や低ビジョン学習者を対象としたオリエンテーション・モビリティ(O&M)指導は,インストラクターの可用性,物理的モックアップ,可変実世界の屋外条件に依存するため,効果的であるが,大規模に標準化・反復することが困難である。
本技術ノートは, 空間音響と音素化を主要チャネルとして用い, ストリート前のO&Mや日常生活の実践における行動とフィードバックの場として活用する, 音質第一の没入型トレーニングフローを提示する。
この手法では、パラメータ化されたシナリオテンプレート(例えば、信号通信、公共交通機関の搭乗、キッチンタスク)、明確なスペクトル配置とマスキングを緩和するタイミングを備えたコンパクトで一貫したキュー語彙、および、グレードされた露出、コンテンツ警告、着座開始、オプトアウト、構造化されたデリフを可能にする軽量な安全プロトコルを規定する。
このシステムは、高品質なバイノーラルレンダリングとヘッドトラッキングを備えたヘッドマウントデバイスを前提としており、3Dシーンの幾何学は、ソースをアンカーしたり、イベントをトリガーしたり、リスク/ガイダンスボリュームを定義したり、視覚のない物理的にもっともらしい動きを管理するために、見えない足場として使用される。
セッションの難易度はキュー密度、イベントテンポ、タスクの複雑さを通じて形成され、キュー一貫性を保持してシナリオ間の転送を促進する。
この仕様は、安全な反復を可能にすること、インストラクターの負担を軽減し、リハビリテーションセンター全体でより明確な標準をサポートすることを目的としており、視覚障害者や視覚障害者にとってオーディオファーストのインタラクションが不可欠であること、HRTFのパーソナライゼーション、評価基準、アクセシビリティ統合のギャップに対処することの証拠と一致している。
ここでは振舞いの結果は報告されていないが、この実装可能な流れは聴覚科学と中心対応設計を融合させ、標準化された評価のための実践的な基礎と将来の比較研究を提供する。
関連論文リスト
- Refining Context-Entangled Content Segmentation via Curriculum Selection and Anti-Curriculum Promotion [14.803333807611414]
CurriSegは2段階学習フレームワークで、カリキュラムと反カリキュラム原則を統合して表現信頼性を向上させる。
カリキュラム選択フェーズでは,サンプル損失の時間統計に基づいて,CurriSegが動的にトレーニングデータを選択する。
本稿では, 高周波成分を抑圧し, 低周波構造および文脈条件への依存を強制するスペクトラル・ブラインドネス・ファイン・チューニングを設計する。
論文 参考訳(メタデータ) (2026-02-01T12:12:24Z) - CurriFlow: Curriculum-Guided Depth Fusion with Optical Flow-Based Temporal Alignment for 3D Semantic Scene Completion [47.47320142811049]
CurriFlowは、光学フローに基づく時間的アライメントとカリキュラム誘導深度融合を統合する、新しいセマンティック占有予測フレームワークである。
我々は,CurriFlowが16.9の平均IoUで最先端性能を実現し,カメラによる3Dセマンティックシーンの完成のための動作誘導設計とカリキュラム認識設計の有効性を検証した。
論文 参考訳(メタデータ) (2025-10-14T10:25:26Z) - StPR: Spatiotemporal Preservation and Routing for Exemplar-Free Video Class-Incremental Learning [79.44594332189018]
CIL(Class-Incremental Learning)は、以前取得した知識を使わずに、時間とともに新しいアクションカテゴリを継続的に学習するモデルの開発を目指している。
既存のアプローチでは、メモリとプライバシに関する懸念を忘れたり、あるいは時間的モデリングを無視する静的なイメージベースのメソッドを適用したりする。
本稿では,情報を明示的に切り離して保存する,統一的で非定型なVCILフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-20T06:46:51Z) - Impact of Noisy Supervision in Foundation Model Learning [91.56591923244943]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Noise-BERT: A Unified Perturbation-Robust Framework with Noise Alignment
Pre-training for Noisy Slot Filling Task [14.707646721729228]
現実的な対話システムでは、ユーザからの入力情報は様々な種類の入力摂動の対象となることが多い。
本研究では,ノイズアライメント事前学習による摂動ロバスト統合フレームワークであるNoss-BERTを提案する。
本フレームワークは,2つのノイズアライメント事前学習タスクを組み込んでいる。
論文 参考訳(メタデータ) (2024-02-22T12:39:50Z) - Understanding and Mitigating the Label Noise in Pre-training on
Downstream Tasks [91.15120211190519]
本稿では、事前学習データセットにおけるノイズの性質を理解し、下流タスクへの影響を軽減することを目的とする。
雑音の悪影響を軽減するために特徴空間に適応する軽量ブラックボックスチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2023-09-29T06:18:15Z) - Curriculum Learning for Goal-Oriented Semantic Communications with a
Common Language [60.85719227557608]
話者とリスナーが協調して一連のタスクを実行することを可能にするために,総合目標指向のセマンティックコミュニケーションフレームワークを提案する。
話者とリスナーのセマンティックコミュニケーションを実現するために,階層的信念に基づく共通言語を提案する。
最適化問題は、イベントの完全かつ抽象的な記述を決定するために定義される。
論文 参考訳(メタデータ) (2022-04-21T22:36:06Z) - Zero-Shot Adaptation for mmWave Beam-Tracking on Overhead Messenger
Wires through Robust Adversarial Reinforcement Learning [6.618268038467747]
ゼロショット適応は、学習エージェントが適応的な微調整なしでトレーニング中に見えないシナリオに適応することを意味します。
オーバヘッドメッセンジャーワイヤ上に配置したmmWaveノードの学習に基づくビーム追跡を考慮し、まずゼロショット適応の重要性を論じる。
この議論に動機づけられて,ゼロショット方式で幅広いテストシナリオに適応するためのロバストなビーム追跡手法を提案する。
論文 参考訳(メタデータ) (2021-02-16T10:07:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。