論文の概要: VizFlyt: Perception-centric Pedagogical Framework For Autonomous Aerial Robots
- arxiv url: http://arxiv.org/abs/2503.22876v1
- Date: Fri, 28 Mar 2025 21:03:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:33:50.740351
- Title: VizFlyt: Perception-centric Pedagogical Framework For Autonomous Aerial Robots
- Title(参考訳): VizFlyt:自律飛行ロボットのための知覚中心の教育フレームワーク
- Authors: Kushagra Srivastava, Rutwik Kulkarni, Manoj Velmurugan, Nitin J. Sanket,
- Abstract要約: textitVizFlytはオープンソースの知覚中心型ハードウェア・イン・ザ・ループ(HITL)フォトリアリスティック・テスト・フレームワークである。
我々は,3Dガウススプラッティングを用いたリアルタイム・光実写型視覚センサの幻覚化のために,外部位置決めシステムからのポーズを利用する。
これにより、障害物に衝突するリスクを伴わずに、自律的なアルゴリズムを空中ロボット上で無ストレスでテストすることができる。
- 参考スコア(独自算出の注目度): 5.669075778114126
- License:
- Abstract: Autonomous aerial robots are becoming commonplace in our lives. Hands-on aerial robotics courses are pivotal in training the next-generation workforce to meet the growing market demands. Such an efficient and compelling course depends on a reliable testbed. In this paper, we present \textit{VizFlyt}, an open-source perception-centric Hardware-In-The-Loop (HITL) photorealistic testing framework for aerial robotics courses. We utilize pose from an external localization system to hallucinate real-time and photorealistic visual sensors using 3D Gaussian Splatting. This enables stress-free testing of autonomy algorithms on aerial robots without the risk of crashing into obstacles. We achieve over 100Hz of system update rate. Lastly, we build upon our past experiences of offering hands-on aerial robotics courses and propose a new open-source and open-hardware curriculum based on \textit{VizFlyt} for the future. We test our framework on various course projects in real-world HITL experiments and present the results showing the efficacy of such a system and its large potential use cases. Code, datasets, hardware guides and demo videos are available at https://pear.wpi.edu/research/vizflyt.html
- Abstract(参考訳): 自律飛行ロボットは私たちの生活で一般的になっています。
空飛ぶロボティクスのコースは、成長する市場の需要を満たすために、次世代の労働力の訓練に欠かせない。
このような効率的で説得力のあるコースは、信頼できるテストベッドに依存します。
本稿では,航空ロボティクスコースのための,オープンソースの知覚中心型ハードウェア・イン・ザ・ループ(HITL)フォトリアリスティック・テスト・フレームワークである「textit{VizFlyt}」を紹介する。
我々は,3Dガウススプラッティングを用いたリアルタイム・光実写型視覚センサの幻覚化のために,外部位置決めシステムからのポーズを利用する。
これにより、障害物に衝突するリスクを伴わずに、自律的なアルゴリズムを空中ロボット上で無ストレスでテストすることができる。
システム更新レートは100Hzを超えます。
最後に,手持ちの航空ロボティクスコースを提供することで過去の経験を生かし,将来的にはtextit{VizFlyt}をベースとした,オープンソースでオープンソースのカリキュラムを提案する。
本研究は,実世界のHITL実験における各種コースプロジェクトの枠組みを検証し,そのようなシステムの有効性と潜在的に大きなユースケースを示す結果を示す。
コード、データセット、ハードウェアガイド、デモビデオはhttps://pear.wpi.edu/research/vizflyt.htmlで公開されている。
関連論文リスト
- GRUtopia: Dream General Robots in a City at Scale [65.08318324604116]
本稿では,各種ロボットを対象とした対話型3D社会「GRUtopia」について紹介する。
GRScenesには100万のインタラクティブな微妙な注釈付きシーンが含まれており、都市規模の環境に自由に組み合わせることができる。
GRResidentsはLarge Language Model (LLM)によって駆動されるNon-Player Character (NPC)システムである。
論文 参考訳(メタデータ) (2024-07-15T17:40:46Z) - IRASim: Learning Interactive Real-Robot Action Simulators [24.591694756757278]
本稿では,ロボットアームが与えられた動作軌跡を実行する様子をリアルに映像化するための新しい手法IRASimを提案する。
提案手法の有効性を検証するため,3つの実ロボットデータセットに基づいて,新しいベンチマーク IRASim Benchmark を作成する。
その結果, IRASimはすべての基準法より優れており, 人的評価に好適であることが示唆された。
論文 参考訳(メタデータ) (2024-06-20T17:50:16Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Knowledge-Driven Robot Program Synthesis from Human VR Demonstrations [16.321053835017942]
バーチャルリアリティ(VR)におけるヒューマンタスクの実演から実行可能なロボット制御プログラムを自動生成するシステムを提案する。
我々は、人間のVRデモを意味論的に解釈するために、常識知識とゲームエンジンに基づく物理を利用する。
ロボットショッピングアシスタントにおける力覚的フェッチ・アンド・プレイスという文脈でのアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-05T09:37:53Z) - Quality-Diversity Optimisation on a Physical Robot Through
Dynamics-Aware and Reset-Free Learning [4.260312058817663]
本研究では,リセットフリーQD(RF-QD)アルゴリズムを用いて,物理ロボット上で直接コントローラを学習する。
本手法は,ロボットと環境との相互作用から学習したダイナミクスモデルを用いて,ロボットの動作を予測する。
RF-QDには、ロボットが外を歩いたときに安全なゾーンに戻すリカバリポリシーも含まれており、継続的な学習を可能にしている。
論文 参考訳(メタデータ) (2023-04-24T13:24:00Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - A Walk in the Park: Learning to Walk in 20 Minutes With Model-Free
Reinforcement Learning [86.06110576808824]
深層強化学習は、制御されていない環境での学習ポリシーに対する有望なアプローチである。
機械学習アルゴリズムとライブラリの最近の進歩と、慎重に調整されたロボットコントローラを組み合わせることで、現実世界では4分で学習できる。
論文 参考訳(メタデータ) (2022-08-16T17:37:36Z) - TACTO: A Fast, Flexible and Open-source Simulator for High-Resolution
Vision-based Tactile Sensors [8.497185333795477]
TACTOは、視覚ベースの触覚センサのための高速で柔軟でオープンソースのシミュレータです。
リアルな高解像度のタッチ読み取りを毎秒数百フレームでレンダリングできる。
我々は,100万の把握から触覚による把握安定性の予測を学習することにより,知覚タスクにおけるTACTOの実証を行う。
論文 参考訳(メタデータ) (2020-12-15T17:54:07Z) - A Framework for Learning Predator-prey Agents from Simulation to Real
World [0.0]
本研究では,シミュレーションから実世界への展開が可能な進化型捕食ロボットシステムを提案する。
捕食者と獲物は共に、期待される行動を学ぶために、NeuroEvolution of Augmenting Topologies (NEAT)によって進化する。
ユーザの利便性のために、シミュレートされた実世界のソースコードとビデオがGithubで公開されている。
論文 参考訳(メタデータ) (2020-10-29T17:33:38Z) - AirSim Drone Racing Lab [56.68291351736057]
AirSim Drone Racing Labは、この領域で機械学習研究を可能にするシミュレーションフレームワークである。
本フレームワークは,複数の写真リアル環境下でのレーストラック生成を可能にする。
当社のフレームワークを使用して,NeurIPS 2019で,シミュレーションベースのドローンレースコンペティションを開催しました。
論文 参考訳(メタデータ) (2020-03-12T08:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。