論文の概要: RT-cache: Efficient Robot Trajectory Retrieval System
- arxiv url: http://arxiv.org/abs/2505.09040v1
- Date: Wed, 14 May 2025 00:41:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.336505
- Title: RT-cache: Efficient Robot Trajectory Retrieval System
- Title(参考訳): RT-cache:効率的なロボット軌道検索システム
- Authors: Owen Kwon, Abraham George, Alison Bartsch, Amir Barati Farimani,
- Abstract要約: 本稿では,実世界のロボット推論を高速化する新しいトラジェクトリメモリパイプラインRT-cacheを紹介する。
RT-cacheは、以前成功したロボット軌道の大規模なメモリを格納し、関連するマルチステップモーションスニペットを取得する。
Open-X Embodimentデータセットやその他の実世界のデータによる実験は、RT-cacheが検索を欠いたベースラインよりも速く、よりうまくタスクを完了していることを示している。
- 参考スコア(独自算出の注目度): 9.312155153982982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces RT-cache, a novel trajectorymemory pipeline that accelerates real-world robot inference by leveraging big-data retrieval and learning from experience. While modern Vision-Language-Action (VLA) models can handle diverse robotic tasks, they often incur high per-step inference costs, resulting in significant latency, sometimes minutes per task. In contrast, RT-cache stores a large-scale Memory of previously successful robot trajectories and retrieves relevant multistep motion snippets, drastically reducing inference overhead. By integrating a Memory Builder with a Trajectory Retrieval, we develop an efficient retrieval process that remains tractable even for extremely large datasets. RT-cache flexibly accumulates real-world experiences and replays them whenever the current scene matches past states, adapting quickly to new or unseen environments with only a few additional samples. Experiments on the Open-X Embodiment Dataset and other real-world data demonstrate that RT-cache completes tasks both faster and more successfully than a baseline lacking retrieval, suggesting a practical, data-driven solution for real-time manipulation.
- Abstract(参考訳): 本稿では,ビッグデータ検索と経験からの学習を活用することで,実世界のロボット推論を高速化する,新しいトラジェクトリメモリパイプラインRT-cacheを紹介する。
現代のVision-Language-Action(VLA)モデルは多様なロボットタスクを処理できるが、しばしばステップ毎の推論コストが高くなり、1タスクあたり数分でかなりの遅延が発生する。
これとは対照的に、RT-cacheは、以前成功したロボット軌道の大規模なメモリを格納し、関連するマルチステップ動作スニペットを検索し、推論オーバーヘッドを大幅に削減する。
メモリビルダーをトラジェクティブ検索と統合することにより、非常に大きなデータセットであっても抽出可能な効率的な検索プロセスを開発する。
RT-cacheは現実の体験を柔軟に蓄積し、現在のシーンが過去の状態と一致するたびに再生する。
Open-X Embodiment Datasetや他の実世界のデータの実験は、RT-cacheが検索を欠いたベースラインよりも早く、よりうまくタスクを完了していることを示している。
関連論文リスト
- Synthetica: Large Scale Synthetic Data for Robot Perception [21.415878105900187]
本稿では,ロバストな状態推定器を訓練するための大規模合成データ生成手法であるSyntheticaを提案する。
本稿では,ほとんどの状態推定問題のフロントエンドとして機能する重要な問題であるオブジェクト検出の課題に焦点を当てる。
レイトレーシングのデータを利用して270万の画像を生成し、高精度なリアルタイム検出変換器を訓練する。
我々は,従来のSOTAの9倍の50-100Hzの検出器を動作させながら,物体検出タスクにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-28T15:50:56Z) - Why Sample Space Matters: Keyframe Sampling Optimization for LiDAR-based Place Recognition [6.468510459310326]
サンプル空間の概念を導入し,LiDARを用いた位置認識のための新しいサンプリング手法を提案する。
このアプローチは、さまざまなデータセット間で堅牢なパフォーマンスを示し、屋内シナリオから屋外シナリオへのシームレスな適応を可能にします。
論文 参考訳(メタデータ) (2024-10-03T16:29:47Z) - REBOOT: Reuse Data for Bootstrapping Efficient Real-World Dexterous
Manipulation [61.7171775202833]
本稿では,強化学習による巧妙な操作スキルの学習を効率化するシステムを提案する。
我々のアプローチの主な考え方は、サンプル効率のRLとリプレイバッファブートストラップの最近の進歩の統合である。
本システムでは,実世界の学習サイクルを,模倣に基づくピックアップポリシを通じて学習されたリセットを組み込むことで完遂する。
論文 参考訳(メタデータ) (2023-09-06T19:05:31Z) - R^3: On-device Real-Time Deep Reinforcement Learning for Autonomous
Robotics [9.2327813168753]
本稿では、デバイス上でのリアルタイムDRLトレーニングにおけるタイミング、メモリ、アルゴリズム性能を管理するための総合的なソリューションR3を提案する。
R3は、(i)動的バッチサイズを最適化するためのデッドライン駆動フィードバックループ、(ii)メモリフットプリントを削減し、より大きなリプレイバッファサイズを実現するための効率的なメモリ管理、(iii)ランタイム分析によってガイドされるランタイムコーディネータ、およびメモリリソース予約を調整するランタイムプロファイラを採用している。
論文 参考訳(メタデータ) (2023-08-29T05:48:28Z) - Pre-Training for Robots: Offline RL Enables Learning New Tasks from a
Handful of Trials [97.95400776235736]
新しいタスクを効果的に学習しようとするオフラインRLに基づくフレームワークを提案する。
既存のロボットデータセットの事前トレーニングと、新しいタスクの迅速な微調整と、最大10のデモを組み合わせたものだ。
我々の知る限り、PTRは本物のWidowXロボットで新しいドメインで新しいタスクを学習する最初のRL手法である。
論文 参考訳(メタデータ) (2022-10-11T06:30:53Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。