論文の概要: MARIO: Modular and Extensible Architecture for Computing Visual
Statistics in RoboCup SPL
- arxiv url: http://arxiv.org/abs/2209.09987v1
- Date: Tue, 20 Sep 2022 20:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 16:18:54.046529
- Title: MARIO: Modular and Extensible Architecture for Computing Visual
Statistics in RoboCup SPL
- Title(参考訳): MARIO:RoboCup SPLにおける視覚統計計算のためのモジュール的で拡張可能なアーキテクチャ
- Authors: Domenico D. Bloisi, Andrea Pennisi, Cristian Zampino, Flavio
Biancospino, Francesco Laus, Gianluca Di Stefano, Michele Brienza, Rocchina
Romano
- Abstract要約: 本報告では,RoboCup SPL(MARIO)における視覚統計計算のためのモジュールおよび計算アーキテクチャについて述べる。
MARIOはオープンソースで使えるソフトウェアアプリケーションで、RoboCup SPLコミュニティの成長に貢献することが最終目標である。
- 参考スコア(独自算出の注目度): 0.27557793825735016
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This technical report describes a modular and extensible architecture for
computing visual statistics in RoboCup SPL (MARIO), presented during the SPL
Open Research Challenge at RoboCup 2022, held in Bangkok (Thailand). MARIO is
an open-source, ready-to-use software application whose final goal is to
contribute to the growth of the RoboCup SPL community. MARIO comes with a GUI
that integrates multiple machine learning and computer vision based functions,
including automatic camera calibration, background subtraction, homography
computation, player + ball tracking and localization, NAO robot pose estimation
and fall detection. MARIO has been ranked no. 1 in the Open Research Challenge.
- Abstract(参考訳): この技術レポートは、バンコク(タイ)で開催されたRoboCup 2022のSPL Open Research Challengeで発表されたRoboCup SPL(MARIO)で、視覚統計を計算するためのモジュラーで拡張可能なアーキテクチャを記述している。
MARIOはオープンソースで使えるソフトウェアアプリケーションで、RoboCup SPLコミュニティの成長に貢献することを目的としている。
MARIOには、自動カメラキャリブレーション、バックグラウンドサブトラクション、ホモグラフィ計算、プレーヤー+ボール追跡とローカライゼーション、NAOロボットのポーズ推定とフォール検出を含む、複数の機械学習とコンピュータビジョンベースの機能を統合するGUIが付属している。
MARIOはOpen Research Challengeで1位にランクインしている。
関連論文リスト
- MOKA: Open-Vocabulary Robotic Manipulation through Mark-Based Visual
Prompting [106.53784213239479]
Moka(Marking Open-vocabulary Keypoint Affordances)は,視覚言語モデルを用いたロボット操作タスクの解法である。
我々のアプローチの核心は、物理的世界におけるVLMのRGB画像とロボットの動きの予測を橋渡しする、手頃さと動きのコンパクトなポイントベース表現である。
我々は,自由形式の言語記述によって規定される様々な操作タスクに対して,Mokaの性能を評価し,分析する。
論文 参考訳(メタデータ) (2024-03-05T18:08:45Z) - RoboScript: Code Generation for Free-Form Manipulation Tasks across Real
and Simulation [77.41969287400977]
本稿では,コード生成を利用したデプロイ可能なロボット操作パイプラインのためのプラットフォームである textbfRobotScript を提案する。
自由形自然言語におけるロボット操作タスクのためのコード生成ベンチマークも提案する。
我々は,Franka と UR5 のロボットアームを含む,複数のロボットエボディメントにまたがるコード生成フレームワークの適応性を実証した。
論文 参考訳(メタデータ) (2024-02-22T15:12:00Z) - JaxMARL: Multi-Agent RL Environments in JAX [107.7560737385902]
我々は、使いやすさとGPU有効性を組み合わせた最初のオープンソースコードベースであるJaxMARLを紹介します。
私たちの実験によると、JAXベースのトレーニングパイプラインの実行は、既存のアプローチよりも最大で12500倍高速です。
また、人気のあるStarCraft Multi-Agent Challengeのベクトル化、単純化されたバージョンであるSMAXを紹介し、ベンチマークする。
論文 参考訳(メタデータ) (2023-11-16T18:58:43Z) - ROSGPT_Vision: Commanding Robots Using Only Language Models' Prompts [0.9821874476902969]
次世代ロボットはLanguage Modelsのプロンプトのみを用いて操作可能であると論じる。
本稿では,このロボットデザインパターンを,Pmpting Robotic Modalities (PRM)という名前で示す。
本稿では、ROSGPT_Visionという新しいロボットフレームワークを構築する際に、このPRM設計パターンを適用する。
論文 参考訳(メタデータ) (2023-08-22T07:21:24Z) - HomeRobot: Open-Vocabulary Mobile Manipulation [107.05702777141178]
Open-Vocabulary Mobile Manipulation (OVMM) は、目に見えない環境で任意のオブジェクトを選択し、命令された場所に配置する問題である。
HomeRobotには2つのコンポーネントがある。シミュレーションコンポーネントは、新しい高品質のマルチルームホーム環境に、大規模で多様なキュレートされたオブジェクトセットを使用する。
論文 参考訳(メタデータ) (2023-06-20T14:30:32Z) - Online Localisation and Colored Mesh Reconstruction Architecture for 3D
Visual Feedback in Robotic Exploration Missions [2.8213955186000512]
本稿では,地中探査ロボットのためのオンライン・ローカライゼーションとカラーメッシュ再構成(OLCMR)ROS認識アーキテクチャを提案する。
遠隔操作者が地図化された環境をミッションの前後で容易に視覚化するために使用することを意図している。
論文 参考訳(メタデータ) (2022-07-21T14:09:43Z) - VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse [77.52012928882928]
INDOORKITはNVIDIA OMNIVERSEの組み込みツールキットである。
屋内シーンビルディング、シーンランダム化、アニメーションコントロールのための柔軟なパイプラインを提供する。
論文 参考訳(メタデータ) (2022-06-23T17:53:33Z) - robosuite: A Modular Simulation Framework and Benchmark for Robot
Learning [30.463205225520053]
robosuiteは、MuJoCo物理エンジンを利用したロボット学習のシミュレーションフレームワークである。
ロボットタスクを作成するためのモジュラーデザインと再現可能な研究のためのベンチマーク環境を提供する。
論文 参考訳(メタデータ) (2020-09-25T15:32:31Z) - IROS 2019 Lifelong Robotic Vision Challenge -- Lifelong Object
Recognition Report [69.37276509171721]
本報告では、IROS 2019-Lifelong Robotic Vision Competition (Lifelong Object Recognition Challenge)を要約し、上位8ドルのファイナリストのメソッドと結果を紹介する。
コンペティションデータセット (L)ifel(O)ng(R)obotic V(IS)ion (OpenLORIS) - Object Recognition (OpenLORIS-object) は、ロボットビジョン領域における生涯・連続学習の研究と応用を駆動するために設計されている。
論文 参考訳(メタデータ) (2020-04-26T08:33:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。