論文の概要: Teaching Machine Learning Fundamentals with LEGO Robotics
- arxiv url: http://arxiv.org/abs/2601.19376v1
- Date: Tue, 27 Jan 2026 08:59:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.259686
- Title: Teaching Machine Learning Fundamentals with LEGO Robotics
- Title(参考訳): LEGO Roboticsで機械学習の基礎を教える
- Authors: Viacheslav Sydora, Guner Dilsad Er, Michael Muehlebach,
- Abstract要約: 本稿では,Bricksを用いたWebベースの機械学習プラットフォームと,12~17歳の生徒に機械学習の概念を教えるための2日間のコースについて述べる。
Machine Learning with Bricksはオープンソースのプラットフォームで、インタラクティブな視覚化とLEGOロボティクスを組み合わせて、KNN、線形回帰、Qラーニングという3つのコアアルゴリズムを教える。
学生は、データを収集し、モデルを訓練し、Webベースのインターフェイスを介してロボットと対話することによって学ぶ。
- 参考スコア(独自算出の注目度): 6.474217812459663
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the web-based platform Machine Learning with Bricks and an accompanying two-day course designed to teach machine learning concepts to students aged 12 to 17 through programming-free robotics activities. Machine Learning with Bricks is an open source platform and combines interactive visualizations with LEGO robotics to teach three core algorithms: KNN, linear regression, and Q-learning. Students learn by collecting data, training models, and interacting with robots via a web-based interface. Pre- and post-surveys with 14 students demonstrate significant improvements in conceptual understanding of machine learning algorithms, positive shifts in AI perception, high platform usability, and increased motivation for continued learning. This work demonstrates that tangible, visualization-based approaches can make machine learning concepts accessible and engaging for young learners while maintaining technical depth. The platform is freely available at https://learning-and-dynamics.github.io/ml-with-bricks/, with video tutorials guiding students through the experiments at https://youtube.com/playlist?list=PLx1grFu4zAcwfKKJZ1Ux4LwRqaePCOA2J.
- Abstract(参考訳): 本稿では、Bricksを用いたWebベースの機械学習プラットフォームと、プログラミングフリーのロボティクス活動を通じて、12歳から17歳の学生に機械学習の概念を教えるための2日間のコースについて述べる。
Machine Learning with Bricksはオープンソースのプラットフォームで、インタラクティブな視覚化とLEGOロボティクスを組み合わせて、KNN、線形回帰、Qラーニングという3つのコアアルゴリズムを教える。
学生は、データを収集し、モデルを訓練し、Webベースのインターフェイスを介してロボットと対話することによって学ぶ。
14人の学生によるプレサーベイとポストサーベイは、機械学習アルゴリズムの概念的理解、AI知覚のポジティブな変化、高プラットフォームのユーザビリティ、継続的な学習へのモチベーションの増大を顕著に改善した。
この研究は、具体的な可視化ベースのアプローチによって、機械学習の概念をアクセスし、技術深度を維持しながら、若い学習者にとって魅力的なものにすることができることを実証している。
このプラットフォームはhttps://learning-and-dynamics.github.io/ml-with-bricks/で無料で利用できる。
list=PLx1grFu4zAcwfKKJZ1Ux4LwRqaePCOA2J
関連論文リスト
- Robot Learning: A Tutorial [3.266205778385688]
このチュートリアルは、現代ロボット学習の風景をナビゲートし、強化学習の基本原理から汎用的な言語条件付きモデルへのコースをチャート化する。
我々のゴールは、ロボット学習の発展に貢献するために必要な概念的理解と実践的ツールを読者に提供することである。
論文 参考訳(メタデータ) (2025-10-14T11:36:46Z) - Moto: Latent Motion Token as the Bridging Language for Learning Robot Manipulation from Videos [101.26467307473638]
我々はMotoを紹介する。Motoは、映像コンテンツをラテントモーションTokenizerでラテントモーションTokenシーケンスに変換する。
我々は、モーショントークンによるMoto-GPTの事前学習を行い、多様な視覚的動きの知識を捉えることができる。
実際のロボット動作に先立って学習した動きを転送するために、潜伏した動きのトークン予測と実際のロボット制御をシームレスにブリッジするコファインチューニング戦略を実装した。
論文 参考訳(メタデータ) (2024-12-05T18:57:04Z) - ICE-T: A Multi-Faceted Concept for Teaching Machine Learning [2.9685635948300004]
我々は、コンピュータサイエンスの教育に使用される実践的原則を考察し、基準を定義し、既存の著名なプラットフォーム、ツール、ゲームの選択を評価します。
我々は、主にブラックボックスとして機械学習を描写するアプローチを批判し、結果としてデータ、アルゴリズム、モデルを理解することに重点を置いていない。
本稿では、既知の教義の延長として、モーダル間移動、計算、説明的思考、ICE-Tについて述べる。
論文 参考訳(メタデータ) (2024-11-08T09:16:05Z) - LLARVA: Vision-Action Instruction Tuning Enhances Robot Learning [50.99807031490589]
LLARVAは,ロボット学習タスク,シナリオ,環境を統一するための,新しい指導指導法で訓練されたモデルである。
我々は,Open X-Embodimentデータセットから8.5Mの画像-視覚的トレースペアを生成し,モデルを事前学習する。
実験によって強い性能が得られ、LLARVAは現代のいくつかのベースラインと比較してよく機能することを示した。
論文 参考訳(メタデータ) (2024-06-17T17:55:29Z) - Exploring Visual Pre-training for Robot Manipulation: Datasets, Models
and Methods [14.780597545674157]
本稿では,3つの基本的視点から,視覚的事前学習がロボット操作作業に及ぼす影響について検討する。
自己教師型学習と教師型学習を組み合わせた視覚的事前学習方式Vi-PRoMを提案する。
論文 参考訳(メタデータ) (2023-08-07T14:24:52Z) - Build-a-Bot: Teaching Conversational AI Using a Transformer-Based Intent
Recognition and Question Answering Architecture [15.19996462016215]
本稿では、自然言語パイプラインを用いて、独自の学校カリキュラムに基づく質問に答えるためにカスタマイズされたモデルを訓練することで、人工知能の原理を学習するためのインタフェースを提案する。
このパイプラインは、AIエージェントを作成しながら、これらのプロセスのそれぞれを通じて、学生のデータ収集、データ拡張、意図認識、質問応答を教える。
論文 参考訳(メタデータ) (2022-12-14T22:57:44Z) - Continual Learning from Demonstration of Robotics Skills [5.573543601558405]
ロボットに動きのスキルを教える方法は、一度に1つのスキルのトレーニングに集中する。
本稿では,ハイパーネットとニューラル常微分方程式解法を用いた実験から連続学習へのアプローチを提案する。
論文 参考訳(メタデータ) (2022-02-14T16:26:52Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Actionable Models: Unsupervised Offline Reinforcement Learning of
Robotic Skills [93.12417203541948]
与えられたデータセットの任意の目標状態に到達するために学習することによって、環境の機能的な理解を学ぶ目的を提案する。
提案手法は,高次元カメラ画像上で動作し,これまで見つからなかったシーンやオブジェクトに一般化した実ロボットの様々なスキルを学習することができる。
論文 参考訳(メタデータ) (2021-04-15T20:10:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。