論文の概要: RT-Cache: Training-Free Retrieval for Real-Time Manipulation
- arxiv url: http://arxiv.org/abs/2505.09040v2
- Date: Sat, 16 Aug 2025 18:49:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:09.960168
- Title: RT-Cache: Training-Free Retrieval for Real-Time Manipulation
- Title(参考訳): RTキャッシュ:リアルタイム操作のためのトレーニング不要検索
- Authors: Owen Kwon, Abraham George, Alison Bartsch, Amir Barati Farimani,
- Abstract要約: RT-Cacheは、ロボットのためのトレーニング不要の検索・アズ・コントロールパイプラインである。
現行のフレームを埋め込んでマルチステップスニペットを検索して再生し、ステップ単位のモデルコールを置き換える。
階層的な検索は、100万スケールのルックアップをサブ秒以下に維持し、コストを計算からストレージにシフトさせる。
- 参考スコア(独自算出の注目度): 9.312155153982982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real robots are expected to repeat the same behavior in new environments with very little new data, yet modern controllers either incur heavy per-step inference or require deployment-time fine-tuning. We propose RT-Cache, a training-free retrieval-as-control pipeline that caches diverse image action trajectories in a unified vector memory and, at test time, embeds the current frame to retrieve and replay multi-step snippets, replacing per-step model calls. A hierarchical search keeps lookups sub-second at million scale, shifting cost from compute to storage and enabling real-time control on modest GPUs. Across real-robot tasks and large open logs, RT-Cache achieves higher success and lower completion time than strong retrieval baselines (approximately x2 higher success and ~30% faster in our settings), and a single-episode anchoring study shows immediate adaptation to a more complex, contact-rich task without fine-tuning. RT-Cache turns experience into an append-only memory, offering a simple, scalable path to few-shot deployment today and a foundation for multimodal keys and optional integration with high-level policies. Project page: https://rt-cache.github.io/.
- Abstract(参考訳): 実際のロボットは、非常に小さな新しいデータで、新しい環境で同じ行動を繰り返すことが期待されている。
我々はRT-Cacheを提案する。RT-Cacheは学習不要な検索・制御パイプラインで、多様な画像行動軌跡をベクトルメモリにキャッシュし、テスト時に現在のフレームを埋め込んで複数のステップスニペットを検索・再生し、ステップごとのモデル呼び出しを置き換える。
階層的な検索は、100万スケールでサブ秒未満のルックアップを保持し、計算からストレージへコストをシフトし、控えめなGPUのリアルタイム制御を可能にする。
リアルタイムロボットタスクと大きなオープンログ全体にわたって、RT-Cacheは強力な検索ベースラインよりも高い成功と低い完了時間を達成する(約x2、設定では約30%高速)。
RT-Cacheは、ユーザエクスペリエンスを追加のみのメモリに変換し、今日の数ショット展開へのシンプルでスケーラブルなパスと、マルチモーダルキーの基盤と、高レベルのポリシとのオプション統合を提供する。
プロジェクトページ: https://rt-cache.github.io/
関連論文リスト
- TRACER: Efficient Object Re-Identification in Networked Cameras through Adaptive Query Processing [8.955401552705892]
Spatulaは、Re-IDクエリを処理するための最先端のビデオデータベース管理システム(VDBMS)である。
カメラ履歴のために高いリコールを必要とする重要なビデオ分析アプリケーションには適していない。
本稿では、適応的なクエリ処理フレームワークを用いて、Re-IDクエリを効率的に処理する新しいVDBMSであるTracerを提案する。
論文 参考訳(メタデータ) (2025-07-13T02:22:08Z) - VQ-VLA: Improving Vision-Language-Action Models via Scaling Vector-Quantized Action Tokenizers [23.868483243482558]
本稿では,従来の100倍以上のデータを活用する,革新的なベクトル化に基づくアクショントークン化手法を提案する。
トレーニングが完了すると、トークン化ツールは広範囲のタスクにシームレスに適応できる。
シミュレーション環境と実際のロボットプラットフォームの両方で広範な実験を行った。
論文 参考訳(メタデータ) (2025-07-01T17:59:44Z) - FindingDory: A Benchmark to Evaluate Memory in Embodied Agents [49.89792845476579]
本研究では,Habitatシミュレータに長距離エンボディタスクのための新しいベンチマークを導入する。
このベンチマークは、持続的なエンゲージメントとコンテキスト認識を必要とする60タスクにわたるメモリベースの機能を評価する。
論文 参考訳(メタデータ) (2025-06-18T17:06:28Z) - Sparse Convolutional Recurrent Learning for Efficient Event-based Neuromorphic Object Detection [4.362139927929203]
ニューロモルフィックプロセッサ上でのイベントベースの効率的なオブジェクト検出のためのスパースイベントベース効率検出器(SEED)を提案する。
我々はスパース畳み込み再帰学習を導入し、これは再帰処理において92%以上の活性化間隔を達成し、スパースイベントデータに基づく推論のコストを大幅に削減する。
論文 参考訳(メタデータ) (2025-06-16T12:54:27Z) - Synthetica: Large Scale Synthetic Data for Robot Perception [21.415878105900187]
本稿では,ロバストな状態推定器を訓練するための大規模合成データ生成手法であるSyntheticaを提案する。
本稿では,ほとんどの状態推定問題のフロントエンドとして機能する重要な問題であるオブジェクト検出の課題に焦点を当てる。
レイトレーシングのデータを利用して270万の画像を生成し、高精度なリアルタイム検出変換器を訓練する。
我々は,従来のSOTAの9倍の50-100Hzの検出器を動作させながら,物体検出タスクにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-28T15:50:56Z) - Why Sample Space Matters: Keyframe Sampling Optimization for LiDAR-based Place Recognition [6.468510459310326]
サンプル空間の概念を導入し,LiDARを用いた位置認識のための新しいサンプリング手法を提案する。
このアプローチは、さまざまなデータセット間で堅牢なパフォーマンスを示し、屋内シナリオから屋外シナリオへのシームレスな適応を可能にします。
論文 参考訳(メタデータ) (2024-10-03T16:29:47Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - REBOOT: Reuse Data for Bootstrapping Efficient Real-World Dexterous
Manipulation [61.7171775202833]
本稿では,強化学習による巧妙な操作スキルの学習を効率化するシステムを提案する。
我々のアプローチの主な考え方は、サンプル効率のRLとリプレイバッファブートストラップの最近の進歩の統合である。
本システムでは,実世界の学習サイクルを,模倣に基づくピックアップポリシを通じて学習されたリセットを組み込むことで完遂する。
論文 参考訳(メタデータ) (2023-09-06T19:05:31Z) - R^3: On-device Real-Time Deep Reinforcement Learning for Autonomous
Robotics [9.2327813168753]
本稿では、デバイス上でのリアルタイムDRLトレーニングにおけるタイミング、メモリ、アルゴリズム性能を管理するための総合的なソリューションR3を提案する。
R3は、(i)動的バッチサイズを最適化するためのデッドライン駆動フィードバックループ、(ii)メモリフットプリントを削減し、より大きなリプレイバッファサイズを実現するための効率的なメモリ管理、(iii)ランタイム分析によってガイドされるランタイムコーディネータ、およびメモリリソース予約を調整するランタイムプロファイラを採用している。
論文 参考訳(メタデータ) (2023-08-29T05:48:28Z) - Pre-Training for Robots: Offline RL Enables Learning New Tasks from a
Handful of Trials [97.95400776235736]
新しいタスクを効果的に学習しようとするオフラインRLに基づくフレームワークを提案する。
既存のロボットデータセットの事前トレーニングと、新しいタスクの迅速な微調整と、最大10のデモを組み合わせたものだ。
我々の知る限り、PTRは本物のWidowXロボットで新しいドメインで新しいタスクを学習する最初のRL手法である。
論文 参考訳(メタデータ) (2022-10-11T06:30:53Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - A Framework for Efficient Robotic Manipulation [79.10407063260473]
単一のロボットアームがピクセルからスパースリワード操作ポリシーを学習できることを示します。
デモは10回しかなく、単一のロボットアームがピクセルからスパースリワード操作のポリシーを学習できることを示しています。
論文 参考訳(メタデータ) (2020-12-14T22:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。