論文の概要: The Michigan Robotics Undergraduate Curriculum: Defining the Discipline
of Robotics for Equity and Excellence
- arxiv url: http://arxiv.org/abs/2308.06905v1
- Date: Mon, 14 Aug 2023 02:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-15 14:47:14.248604
- Title: The Michigan Robotics Undergraduate Curriculum: Defining the Discipline
of Robotics for Equity and Excellence
- Title(参考訳): ミシガン・ロボティクスのカリキュラム : エクイティと卓越のためのロボティクスの分野を定義する
- Authors: Odest Chadwicke Jenkins, Jessy Grizzle, Ella Atkins, Leia Stirling,
Elliott Rouse, Mark Guzdial, Damen Provost, Kimberly Mann, and Joanna
Millunchick
- Abstract要約: ミシガン大学のロボティクス・メジャーは2022-23年度に設立された。
この文書は、ミシガン大学のロボティクス・アンディグリー・プログラム(Robotics Undergraduate Program)について、本誌が最初に提案したカリキュラムである。
- 参考スコア(独自算出の注目度): 6.279487567339418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Robotics Major at the University of Michigan was successfully launched in
the 2022-23 academic year as an innovative step forward to better serve
students, our communities, and our society. Building on our guiding principle
of "Robotics with Respect" and our larger Robotics Pathways model, the Michigan
Robotics Major was designed to define robotics as a true academic discipline
with both equity and excellence as our highest priorities. Understanding that
talent is equally distributed but opportunity is not, the Michigan Robotics
Major has embraced an adaptable curriculum that is accessible through a
diversity of student pathways and enables successful and sustained career-long
participation in robotics, AI, and automation professions. The results after
our planning efforts (2019-22) and first academic year (2022-23) have been
highly encouraging: more than 100 students declared Robotics as their major,
completion of the Robotics major by our first two graduates, soaring
enrollments in our Robotics classes, thriving partnerships with Historically
Black Colleges and Universities. This document provides our original curricular
proposal for the Robotics Undergraduate Program at the University of Michigan,
submitted to the Michigan Association of State Universities in April 2022 and
approved in June 2022. The dissemination of our program design is in the spirit
of continued growth for higher education towards realizing equity and
excellence.
The most recent version of this document is also available on Google Docs
through this link: https://ocj.me/robotics_major
- Abstract(参考訳): ミシガン大学のロボティクス専攻は、2022-23年に、学生やコミュニティ、社会により良いサービスを提供するための革新的なステップとして、成功裏に立ち上げられた。
の原則と我々のより大きなロボティクス・パスウェイ・モデルに基づいて、ミシガン・ロボティクス・メジャーは、ロボティクスを真の学術分野として定義し、エクイティと卓越性を最優先事項としている。
才能が均等に分散されているが機会ではないことを理解するために、ミシガン・ロボティクス・メジャーは、様々な学生パスを通じてアクセス可能で、ロボット工学、AI、オートメーションの専門職に成功し持続的なキャリア参加を可能にする適応可能なカリキュラムを採用した。
100人以上の学生がロボティクスを専攻と宣言し、最初の2人の卒業生によるロボティクス専攻の完成、ロボティクスのクラスへの登録の急増、歴史的黒人大学や大学とのパートナーシップの活発化などです。
この文書は2022年4月にミシガン州立大学に提出され、2022年6月に承認されたミシガン大学のロボティクス学部プログラムについて、本誌が最初に提案したカリキュラムを紹介します。
プログラムデザインの普及は、高等教育の継続的な成長の精神であり、エクイティと卓越性を実現している。
このドキュメントの最新バージョンは、このリンクを通じてgoogle docsでも利用可能である。
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Forecasting Success of Computer Science Professors and Students Based on Their Academic and Personal Backgrounds [0.0]
北米の高名な大学に入学する機会に対する学生の過去の大学の影響を分析した。
以上の結果から,従来の大学ランキングが目標達成の重要な要因であることが示唆された。
論文 参考訳(メタデータ) (2023-11-04T18:30:24Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - WIP: Development of a Student-Centered Personalized Learning Framework
to Advance Undergraduate Robotics Education [3.4359491310368786]
大学レベルでのロボティクスの研究は、幅広い関心、経験、目的を表している。
本稿では,ロボット工学の学生にパーソナライズされた学習環境を提供する学習システムの開発について述べる。
論文 参考訳(メタデータ) (2023-09-10T20:00:25Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Teaching Continuity in Robotics Labs in the Age of Covid and Beyond [0.0]
本稿では,コンピュータサイエンス部門における未来のロボット技術者とロボティクスエンジニアの育成には,実際のロボットによる広範な直接的な作業が必要であることを論じる。
これはまさに、Covidパンデミックの始まりである2020年初頭にロボティクス研究所が遭遇した問題だ。
結論のエキサイティングな洞察は、パンデミックによって奨励され、引き起こされた作業は、長期的利益に非常に肯定的なものだ、ということです。
論文 参考訳(メタデータ) (2021-05-18T21:38:26Z) - The Road to a Successful HRI: AI, Trust and ethicS-TRAITS [65.60507052509406]
本ワークショップの目的は,学界や産業の研究者に対して,人間とロボットの関係の学際性と学際性について議論する機会を提供することである。
論文 参考訳(メタデータ) (2021-03-23T16:52:12Z) - Robotics Enabling the Workforce [5.0555627833288]
我々は、基礎研究、技術開発、K-16教育、生涯学習に投資する必要がある。
米国をロボット工学のリーダーにするためには、基礎研究、技術開発、K-16教育、生涯学習に投資する必要がある。
論文 参考訳(メタデータ) (2020-12-16T23:05:10Z) - Learning Locomotion Skills in Evolvable Robots [10.167123492952694]
本稿では,任意の形状のモジュール型ロボットが目標に向かって歩いたり,移動した場合にこの目標に従うことを学習できるようにするための,コントローラアーキテクチャと汎用学習手法を提案する。
我々のアプローチは、現実世界の3つのシナリオにおいて、クモ、ヤモリ、そしてその子孫の3つのロボットに対して検証されている。
論文 参考訳(メタデータ) (2020-10-19T14:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。