論文の概要: Robo-DM: Data Management For Large Robot Datasets
- arxiv url: http://arxiv.org/abs/2505.15558v1
- Date: Wed, 21 May 2025 14:17:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:59.689171
- Title: Robo-DM: Data Management For Large Robot Datasets
- Title(参考訳): Robo-DM:大型ロボットデータセットのためのデータ管理
- Authors: Kaiyuan Chen, Letian Fu, David Huang, Yanxiang Zhang, Lawrence Yunliang Chen, Huang Huang, Kush Hari, Ashwin Balakrishna, Ted Xiao, Pannag R Sanketi, John Kubiatowicz, Ken Goldberg,
- Abstract要約: 我々は,ロボットデータによる収集,共有,学習を行う,効率的なクラウドベースのデータ管理ツールキットであるRobo-DMを提案する。
Robo-DMは、トレーニング中のロボット軌跡データ、転送コスト、データ負荷時間を著しく削減することができる。
我々は,ロボDMで訓練されたモデルに,ロボ圧縮,ピック・アンド・プレイス・タスク,インコンテキスト・ロボット・トランスフォーマを用いて物理的に評価する。
- 参考スコア(独自算出の注目度): 22.97560649208868
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent results suggest that very large datasets of teleoperated robot demonstrations can be used to train transformer-based models that have the potential to generalize to new scenes, robots, and tasks. However, curating, distributing, and loading large datasets of robot trajectories, which typically consist of video, textual, and numerical modalities - including streams from multiple cameras - remains challenging. We propose Robo-DM, an efficient open-source cloud-based data management toolkit for collecting, sharing, and learning with robot data. With Robo-DM, robot datasets are stored in a self-contained format with Extensible Binary Meta Language (EBML). Robo-DM can significantly reduce the size of robot trajectory data, transfer costs, and data load time during training. Compared to the RLDS format used in OXE datasets, Robo-DM's compression saves space by up to 70x (lossy) and 3.5x (lossless). Robo-DM also accelerates data retrieval by load-balancing video decoding with memory-mapped decoding caches. Compared to LeRobot, a framework that also uses lossy video compression, Robo-DM is up to 50x faster when decoding sequentially. We physically evaluate a model trained by Robo-DM with lossy compression, a pick-and-place task, and In-Context Robot Transformer. Robo-DM uses 75x compression of the original dataset and does not suffer reduction in downstream task accuracy.
- Abstract(参考訳): 近年の研究では、遠隔操作型ロボットデモの非常に大規模なデータセットを使用して、新しいシーンやロボット、タスクに一般化する可能性を持つトランスフォーマーベースのモデルを訓練することができることが示唆されている。
しかし、ビデオ、テキスト、数値モダリティ(複数のカメラからのストリームを含む)で構成されるロボット軌道の大規模なデータセットのキュレーション、配布、ロードは依然として困難である。
我々は,ロボットデータによる収集,共有,学習を行う,効率的なクラウドベースのデータ管理ツールキットであるRobo-DMを提案する。
Robo-DMでは、ロボットデータセットはExtensible Binary Meta Language(EBML)を備えた、自己完結型の形式で格納される。
Robo-DMは、トレーニング中のロボット軌跡データ、転送コスト、データ負荷時間を著しく削減することができる。
OXEデータセットで使用されるRDDSフォーマットと比較して、Robo-DMの圧縮は空間を最大70倍(光沢)と3.5倍(光沢)に節約する。
Robo-DMはまた、メモリマップされたデコードキャッシュによるロードバランシングビデオデコードによるデータ検索を高速化する。
損失の多いビデオ圧縮を使用するフレームワークであるLeRobotと比較して、Robo-DMはシーケンシャルにデコードする場合、最大50倍高速である。
我々は,ロボDMで訓練されたモデルに,ロボ圧縮,ピック・アンド・プレイス・タスク,インコンテキスト・ロボット・トランスフォーマを用いて物理的に評価する。
Robo-DMはオリジナルのデータセットの75倍の圧縮を使用しており、ダウンストリームタスクの精度を低下させていない。
関連論文リスト
- RoboMIND: Benchmark on Multi-embodiment Intelligence Normative Data for Robot Manipulation [47.41571121843972]
96のオブジェクトクラスを含む479のタスクにわたる107kのデモトラジェクトリを含むデータセットであるRoboMINDを紹介した。
RoboMINDは人間の遠隔操作を通じて収集され、総合的なロボット関連情報を含んでいる。
私たちのデータセットには5万個の実世界の障害デモが含まれており、それぞれに詳細な原因が伴い、障害のリフレクションと修正を可能にしています。
論文 参考訳(メタデータ) (2024-12-18T14:17:16Z) - Robots Pre-train Robots: Manipulation-Centric Robotic Representation from Large-Scale Robot Datasets [24.77850617214567]
本稿では,視覚的特徴と操作タスクの行動や受容といった動的情報の両方を抽出する基礎表現学習フレームワークを提案する。
具体的には、DROIDロボットデータセット上で視覚エンコーダを事前訓練し、ロボットの受容状態や動作などの動作関連データを活用する。
本研究では,視覚的観察をロボットの主観的状態-動作ダイナミクスと整合させる新しいコントラスト的損失と,事前トレーニング中の行動を予測する行動クローニング(BC)のようなアクター損失と,時間的コントラスト的損失を導入する。
論文 参考訳(メタデータ) (2024-10-29T17:58:13Z) - RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation [23.554917579133576]
本稿では,ロボット拡散変換器(RDT)について述べる。
RDTは、マルチモーダリティを効果的に表現するために拡散モデルを構築し、スケーラブルトランスフォーマーの革新的な設計である。
さらに,様々なロボットの動作表現を統一する物理解釈可能な統一行動空間を導入する。
論文 参考訳(メタデータ) (2024-10-10T12:33:46Z) - LLaRA: Supercharging Robot Learning Data for Vision-Language Policy [56.505551117094534]
我々はLLaRA: Large Language and Robotics Assistantを紹介した。
まず、既存の行動クローニングデータセットからロボットのための会話スタイルの指導データを生成する自動パイプラインを提案する。
このようなデータセットを限定的に微調整したVLMは、ロボット制御において有意義な行動決定を導出できることを示す。
論文 参考訳(メタデータ) (2024-06-28T17:59:12Z) - Robotic Offline RL from Internet Videos via Value-Function Pre-Training [67.44673316943475]
ロボットオフラインRLにおける大規模ビデオデータセットを活用するシステムを開発した。
ビデオデータセットにおける価値学習は、下流のロボットオフラインRLに対して、他のアプローチよりも理解しやすい表現を学習することを示す。
論文 参考訳(メタデータ) (2023-09-22T17:59:14Z) - RT-1: Robotics Transformer for Real-World Control at Scale [98.09428483862165]
我々は,有望なスケーラブルなモデル特性を示す,ロボティクストランスフォーマーと呼ばれるモデルクラスを提示する。
実世界の課題を遂行する実ロボットの大規模データ収集に基づいて,様々なモデルクラスと,データサイズ,モデルサイズ,データの多様性の関数として一般化する能力について検証した。
論文 参考訳(メタデータ) (2022-12-13T18:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。