論文の概要: Inclusive STEAM Education: A Framework for Teaching Cod-2 ing and Robotics to Students with Visually Impairment Using 3 Advanced Computer Vision
- arxiv url: http://arxiv.org/abs/2503.16482v1
- Date: Thu, 06 Mar 2025 17:15:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-30 08:29:33.434523
- Title: Inclusive STEAM Education: A Framework for Teaching Cod-2 ing and Robotics to Students with Visually Impairment Using 3 Advanced Computer Vision
- Title(参考訳): 包括的STEAM教育:3つの高度なコンピュータビジョンを用いた視覚障害のある学生にCod-2ingとロボティクスを教えるフレームワーク
- Authors: Mahmoud Hamash, Md Raqib Khan, Peter Tiernan,
- Abstract要約: 本稿では,事前構築したロボットと,迷路解決技術などのアルゴリズムを,アクセス可能な学習環境内で活用する枠組みを提案する。
提案システムでは、コントラスト言語画像事前学習(CLIP)を用いて、グローバルカメラキャプチャーされた迷路レイアウトを処理する。
学生は、CLIPを通じて洗練された音声コマンドを発行する一方、ロボット搭載ステレオカメラは、同時SLAMで処理されるリアルタイムデータを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: STEAM education integrates Science, Technology, Engineering, Arts, and Mathematics to foster creativity and problem-solving. However, students with visual impairments (VI) encounter significant challenges in programming and robotics, particularly in tracking robot movements and developing spatial awareness. This paper presents a framework that leverages pre-constructed robots and algorithms, such as maze-solving techniques, within an accessible learning environment. The proposed system employs Contrastive Language-Image Pre-training (CLIP) to process global camera-captured maze layouts, converting visual data into textual descriptions that generate spatial audio prompts in an Audio Virtual Reality (AVR) system. Students issue verbal commands, which are refined through CLIP, while robot-mounted stereo cameras provide real-time data processed via Simultaneous Localization and Mapping (SLAM) for continuous feedback. By integrating these technologies, the framework empowers VI students to develop coding skills and engage in complex problem-solving tasks. Beyond maze-solving applications, this approach demonstrates the broader potential of computer vision in special education, contributing to improved accessibility and learning experiences in STEAM disciplines.
- Abstract(参考訳): STEAM教育は、科学、技術、工学、芸術、数学を統合し、創造性と問題解決を促進する。
しかし、視覚障害のある学生(VI)は、特にロボットの動きの追跡や空間認識の発達において、プログラミングやロボティクスにおいて重大な課題に直面している。
本稿では,事前構築したロボットと,迷路解決技術などのアルゴリズムを,アクセス可能な学習環境内で活用する枠組みを提案する。
提案システムでは,コントラスト言語-画像事前学習(CLIP)を用いて,映像データをテキスト記述に変換し,音声バーチャルリアリティ(AVR)システムで空間的音声プロンプトを生成する。
学生は、CLIPを通じて洗練された音声コマンドを発行する一方、ロボット搭載ステレオカメラは、継続的なフィードバックのために同時局所化マッピング(SLAM)を介してリアルタイムにデータを処理する。
これらの技術を統合することで、このフレームワークはVIの学生にコーディングスキルを開発し、複雑な問題解決タスクに携わることを可能にする。
迷路解決以外にも、特殊教育におけるコンピュータビジョンの幅広い可能性を示し、STEAM分野におけるアクセシビリティと学習経験の向上に寄与する。
関連論文リスト
- Overview of Current Challenges in Multi-Architecture Software Engineering and a Vision for the Future [0.0]
提示されたシステムアーキテクチャは、動的な知識グラフベースのWebAssembly Twinsの概念に基づいている。
結果として得られるシステムは、エンドユーザによる完全な透明性とコントロール性を備えた、高度な自律能力を持つことになる。
論文 参考訳(メタデータ) (2024-10-28T13:03:09Z) - An Innovative Solution: AI-Based Digital Screen-Integrated Tables for Educational Settings [0.0]
デジタル画面統合テーブルは、特に教育的な設定のために設計されている。
中央処理ユニット(CPU)で制御される統合デジタルスクリーンを備えたテーブル
本発明は、教室活動及び評価中の学生成績データの収集を容易にする。
論文 参考訳(メタデータ) (2024-10-08T08:00:17Z) - VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Research Experience of an Undergraduate Student in Computer Vision and Robotics [0.0]
本稿では,コンピュータビジョンとロボティクスの分野に精通するコンピュータ工学の学部生の教育経験に焦点を当てる。
カメラが翻訳動作を行うとき、光学フローとその応用がどのように移動物体を検出するのかを探求し、遭遇した課題とそれらを克服するための戦略を強調した。
論文 参考訳(メタデータ) (2024-07-14T02:01:50Z) - MOKA: Open-World Robotic Manipulation through Mark-Based Visual Prompting [97.52388851329667]
我々は,自由形式の言語命令で指定されたロボット操作タスクを解決するために,マーキングオープンワールドキーポイントアフォード(Moka)を導入する。
我々のアプローチの中心は、VLMの観測画像と物理世界におけるロボットの行動に関する予測を橋渡しする、コンパクトな点ベースの可測性表現である。
ツールの使用,変形可能な身体操作,オブジェクト再構成など,さまざまなテーブルトップ操作タスクにおけるMokaの性能評価と解析を行った。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Evaluating Continual Learning Algorithms by Generating 3D Virtual
Environments [66.83839051693695]
連続学習とは、人間や動物が特定の環境で徐々に学習する能力である。
本稿では3次元仮想環境の最近の進歩を活用して,フォトリアリスティックな外観を持つ潜在的に長寿命な動的シーンの自動生成にアプローチすることを提案する。
本論文の新たな要素は、シーンがパラメトリックな方法で記述され、エージェントが知覚する入力ストリームの視覚的複雑さを完全に制御できることである。
論文 参考訳(メタデータ) (2021-09-16T10:37:21Z) - Low Dimensional State Representation Learning with Robotics Priors in
Continuous Action Spaces [8.692025477306212]
強化学習アルゴリズムは、エンドツーエンドで複雑なロボティクスタスクを解くことができることが証明されている。
本稿では,ロボットの生の知覚情報から得られる高次元の観察から,低次元状態表現の学習と最適ポリシーの学習を組み合わせた枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-04T15:42:01Z) - Technology Readiness Levels for Machine Learning Systems [107.56979560568232]
機械学習システムの開発とデプロイは、現代のツールで簡単に実行できますが、プロセスは一般的に急ぎ、エンドツーエンドです。
私たちは、機械学習の開発と展開のための実証済みのシステムエンジニアリングアプローチを開発しました。
当社の「機械学習技術準備レベル」フレームワークは、堅牢で信頼性が高く、責任あるシステムを確保するための原則的なプロセスを定義します。
論文 参考訳(メタデータ) (2021-01-11T15:54:48Z) - The Ingredients of Real-World Robotic Reinforcement Learning [71.92831985295163]
実世界で収集されたデータによって継続的に自律的に改善できるロボット学習システムに必要な要素について論じる。
本稿では,このようなシステムの特異なインスタンス化を事例として,デクスタラスな操作を事例として提案する。
我々は人間の介入なしに学習できることを実証し、現実世界の3本指の手で様々な視覚ベースのスキルを習得する。
論文 参考訳(メタデータ) (2020-04-27T03:36:10Z) - SAPIEN: A SimulAted Part-based Interactive ENvironment [77.4739790629284]
SAPIENは現実的で物理に富んだシミュレートされた環境であり、音声オブジェクトのための大規模なセットをホストしている。
部品検出と動作特性認識のための最先端の視覚アルゴリズムの評価を行い,ロボットインタラクションタスクの実証を行った。
論文 参考訳(メタデータ) (2020-03-19T00:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。