論文の概要: An Extension-Based Accessibility Framework for Making Blockly Accessible to Blind and Low-Vision Users
- arxiv url: http://arxiv.org/abs/2601.10688v1
- Date: Thu, 15 Jan 2026 18:48:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.27448
- Title: An Extension-Based Accessibility Framework for Making Blockly Accessible to Blind and Low-Vision Users
- Title(参考訳): ブラインドおよび低ビジョンユーザへのブロックアクセスを可能にする拡張ベースのアクセシビリティフレームワーク
- Authors: Rubel Hassan Mollik, Vamsi Krishna Kosuri, Hans Djalali, Stephanie Ludi, Aboubakar Mountapmbeme,
- Abstract要約: ScratchやCode.orgのようなブロックベースのプログラミング環境(BBPE)はK-12コンピュータサイエンスクラスで広く使われている。
しかし、視覚障害者(BVI)にはほとんどアクセスできない。
BVI学生がBBPEを利用できるようにするための拡張ベースのアクセシビリティフレームワーク(EAF)を提案する。
- 参考スコア(独自算出の注目度): 0.45671221781968335
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Block-based programming environments (BBPEs) such as Scratch and Code.org are now widely used in K-12 computer science classes, but they remain mostly inaccessible to blind or visually impaired (BVI) learners. A major problem is that prior accessibility solutions have relied on modifications to the Blockly library, making them difficult to apply in existing BBPEs and thereby limiting adoption. We present an Extension-based Accessibility Framework (EAF) to make BBPEs accessible for BVI students. The framework uses a modular architecture that enables seamless integration with existing Blockly-based BBPEs. We present an innovative three-dimensional (3D) hierarchical navigation model featuring stack labeling and block numbering, mode-based editing to prevent accidental modifications, and WAI-ARIA implementation to ensure compatibility with external screen readers. We evaluated our approach by integrating the EAF framework into two BBPEs (covering 177 test cases) and conducting semi-structured interviews with four participants using VoiceOver, JAWS, and NVDA. Participants reported clearer spatial orientation and easier mental model formation compared to default Blockly keyboard navigation. EAF shows that modular architecture can provide comprehensive accessibility while ensuring compatibility with existing BBPEs.
- Abstract(参考訳): ScratchやCode.orgのようなブロックベースのプログラミング環境(BBPE)は、現在ではK-12コンピュータサイエンスのクラスで広く使われているが、視覚障害者や視覚障害者にはほとんどアクセスできない。
主要な問題は、事前アクセシビリティソリューションがBlocklyライブラリの変更に依存しており、既存のBBPEに適用することが難しく、採用が制限されていることである。
BVI学生がBBPEを利用できるようにするための拡張ベースのアクセシビリティフレームワーク(EAF)を提案する。
このフレームワークは、既存のBlocklyベースのBBPEとのシームレスな統合を可能にするモジュールアーキテクチャを使用している。
本稿では,スタックラベリングとブロックナンバリングを特徴とする3次元階層型ナビゲーションモデル,事故回避のためのモードベース編集,外部スクリーンリーダとの互換性を確保するためのWAI-ARIA実装を提案する。
EAFフレームワークを2つのBBPE(テストケース177件)に統合し,VoiceOver,JAWS,NVDAの4名を対象に半構造化インタビューを行った。
参加者は、デフォルトのBlocklyキーボードナビゲーションに比べて、空間的向きの明確化とメンタルモデル形成の容易さを報告した。
EAFは、モジュールアーキテクチャが既存のBBPEとの互換性を確保しつつ、包括的なアクセシビリティを提供することを示している。
関連論文リスト
- BOFA: Bridge-Layer Orthogonal Low-Rank Fusion for CLIP-Based Class-Incremental Learning [84.56022893225422]
CIL(Class-Incremental Learning)は,従来の知識を忘れずに,新たなカテゴリを継続的に学習することを目的としている。
CLIP から CIL への視覚言語モデルの適用には,次の2つの大きな課題がある。(1) 下流タスクへの適応には,新たな学習可能なモジュールを必要とする場合が多いこと,2) モデル複雑性の増大と忘れやすいこと,2) マルチモーダル表現は相補的な長所を提供する一方で,既存の手法では,視覚的およびテキスト的モダリティを効果的に統合する可能性を完全には実現できていない。
論文 参考訳(メタデータ) (2025-11-14T15:51:40Z) - KonfAI: A Modular and Fully Configurable Framework for Deep Learning in Medical Imaging [1.2556993688873865]
KonfAIは、医療画像タスクに特化したモジュール式で完全なディープラーニングフレームワークである。
これにより、構造化YAML設定ファイルを通じて、完全なトレーニング、推論、評価を定義することができる。
KonfAIはオープンソースで、https://github.com/vboussot/KonfAIで入手できる。
論文 参考訳(メタデータ) (2025-08-13T13:55:43Z) - CBDES MoE: Hierarchically Decoupled Mixture-of-Experts for Functional Modules in Autonomous Driving [2.9741451632381755]
本稿では,階層的に分離されたMixture-of-Expertsアーキテクチャを機能モジュールレベルで提案する。
CBDES MoEは、複数の構造的に異質な専門家ネットワークと軽量なセルフアテンションルータゲーティング機構を統合している。
3Dオブジェクト検出において、固定されたシングルエキスパートベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-08-11T10:44:25Z) - DART: Dual Adaptive Refinement Transfer for Open-Vocabulary Multi-Label Recognition [59.203152078315235]
Open-Vocabulary Multi-Label Recognition (OV-MLR)は、画像内の複数の見えないオブジェクトカテゴリを識別することを目的としている。
ビジョンランゲージ事前学習モデルは強力なオープン語彙基盤を提供するが、弱い監督下では微粒な局所化に苦慮する。
本稿では,これらの制約を克服するためのDART(Dual Adaptive Refinement Transfer)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-07T17:22:33Z) - Vocabulary-free Fine-grained Visual Recognition via Enriched Contextually Grounded Vision-Language Model [52.01031460230826]
伝統的なアプローチは固定語彙と閉集合分類パラダイムに大きく依存している。
近年の研究では、大規模言語モデルと視覚言語モデル(VLM)を組み合わせることで、オープンセット認識が可能であることが実証されている。
そこで本研究では,精密な視覚認識のための最先端の手法であるEnriched-FineRを提案する。
論文 参考訳(メタデータ) (2025-07-30T20:06:01Z) - LaMI-DETR: Open-Vocabulary Detection with Language Model Instruction [63.668635390907575]
既存の手法は、視覚言語モデル(VLM)の頑健なオープン語彙認識機能を活用することにより、オープン語彙オブジェクト検出を強化している。
本稿では,視覚的概念間の関係を生かしたLanguage Model Instruction(LaMI)戦略を提案する。
論文 参考訳(メタデータ) (2024-07-16T02:58:33Z) - AccessLens: Auto-detecting Inaccessibility of Everyday Objects [17.269659576368536]
本稿では,日常オブジェクトのアクセス不能なインターフェースを識別するためのエンドツーエンドシステムであるAccessLensを紹介する。
当社のアプローチでは,21の非アクセシビリティクラスを自動的に認識するために設計された新しいAccessDBデータセットを使用して,検出器をトレーニングする。
AccessMetaは、これらのアクセシビリティクラスをオープンソース3D拡張設計にリンクする包括的な辞書を構築するための堅牢な方法として機能する。
論文 参考訳(メタデータ) (2024-01-29T09:27:55Z) - LAMBO: Large AI Model Empowered Edge Intelligence [71.56135386994119]
次世代エッジインテリジェンスは、オフロード技術を通じて様々なアプリケーションに恩恵をもたらすことが期待されている。
従来のオフロードアーキテクチャは、不均一な制約、部分的な認識、不確実な一般化、トラクタビリティの欠如など、いくつかの問題に直面している。
我々は、これらの問題を解決するための10億以上のパラメータを持つLarge AI Model-Based Offloading (LAMBO)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T07:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。