論文の概要: On Pre-Training for Visuo-Motor Control: Revisiting a
Learning-from-Scratch Baseline
- arxiv url: http://arxiv.org/abs/2212.05749v2
- Date: Thu, 15 Jun 2023 17:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 02:42:44.978727
- Title: On Pre-Training for Visuo-Motor Control: Revisiting a
Learning-from-Scratch Baseline
- Title(参考訳): Visuo-Motorコントロールの事前学習について:学習ベースラインの再検討
- Authors: Nicklas Hansen and Zhecheng Yuan and Yanjie Ze and Tongzhou Mu and
Aravind Rajeswaran and Hao Su and Huazhe Xu and Xiaolong Wang
- Abstract要約: データ拡張と浅いConvNetを組み込んだシンプルなLearning-from-Scratch(LfS)ベースラインを再検討する。
このベースラインは、大規模な視覚データセットでトレーニングされた凍結した視覚表現を活用する最近のアプローチと驚くほど競合している。
- 参考スコア(独自算出の注目度): 35.875051972318346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we examine the effectiveness of pre-training for visuo-motor
control tasks. We revisit a simple Learning-from-Scratch (LfS) baseline that
incorporates data augmentation and a shallow ConvNet, and find that this
baseline is surprisingly competitive with recent approaches (PVR, MVP, R3M)
that leverage frozen visual representations trained on large-scale vision
datasets -- across a variety of algorithms, task domains, and metrics in
simulation and on a real robot. Our results demonstrate that these methods are
hindered by a significant domain gap between the pre-training datasets and
current benchmarks for visuo-motor control, which is alleviated by finetuning.
Based on our findings, we provide recommendations for future research in
pre-training for control and hope that our simple yet strong baseline will aid
in accurately benchmarking progress in this area.
- Abstract(参考訳): 本稿では,ビジュオモータ制御タスクの事前学習の有効性について検討する。
データ拡張と浅いConvNetを組み込んだシンプルなLearning-from-Scratch(LfS)ベースラインを再検討し、このベースラインが、さまざまなアルゴリズム、タスクドメイン、シミュレーションおよび実際のロボット上でトレーニングされた大規模なビジョンデータセットでトレーニングされた凍結された視覚表現を活用する、最近のアプローチ(PVR、MVP、R3M)と驚くほど競合していることを発見した。
以上の結果から, これらの手法は, 微調整により緩和されるビジュオモータ制御のための, 事前学習データセットと現在のベンチマークとの間に, ドメインギャップを生じさせることが示唆された。
以上より,制御のための事前学習における今後の研究を推奨し,この領域の進捗を正確にベンチマークする上で,単純かつ強力なベースラインが役立つことを期待する。
関連論文リスト
- Hierarchical and Decoupled BEV Perception Learning Framework for Autonomous Driving [52.808273563372126]
本稿では,基本認識モジュールとユーザフレンドリなグラフィカルインタフェースのライブラリの提供を目的とした,新しい階層的BEV知覚パラダイムを提案する。
我々は,大規模公開データセットと合理化開発プロセスを効果的に活用するために,Pretrain-Finetune戦略を実行している。
また、マルチモジュールラーニング(MML)アプローチを提案し、複数のモデルの相乗的かつ反復的な訓練により性能を向上させる。
論文 参考訳(メタデータ) (2024-07-17T11:17:20Z) - Perception Without Vision for Trajectory Prediction: Ego Vehicle Dynamics as Scene Representation for Efficient Active Learning in Autonomous Driving [0.0]
本研究では,アクティブラーニングフレームワークにおける軌道状態とサンプリング戦略のクラスタリング手法を提案する。
トラジェクティブ・ステートインフォームド・アクティブ・ラーニングを統合することで、より効率的で堅牢な自動運転システムが実現可能であることを示す。
論文 参考訳(メタデータ) (2024-05-15T02:54:11Z) - PILOT: A Pre-Trained Model-Based Continual Learning Toolbox [71.63186089279218]
本稿では,PILOTとして知られるモデルベース連続学習ツールボックスについて紹介する。
一方、PILOTはL2P、DualPrompt、CODA-Promptといった事前学習モデルに基づいて、最先端のクラスインクリメンタル学習アルゴリズムを実装している。
一方、PILOTは、事前学習されたモデルの文脈に典型的なクラス増分学習アルゴリズムを適合させ、それらの効果を評価する。
論文 参考訳(メタデータ) (2023-09-13T17:55:11Z) - Challenges and Opportunities in Offline Reinforcement Learning from
Visual Observations [58.758928936316785]
連続的な行動空間を持つ視覚的観察からオフラインの強化学習は未探索のままである。
2つの一般的な視覚に基づくオンライン強化学習アルゴリズムの変更は、既存のオフラインRL法より優れていることを示す。
論文 参考訳(メタデータ) (2022-06-09T22:08:47Z) - A Closer Look at Self-Supervised Lightweight Vision Transformers [44.44888945683147]
大規模視覚変換器(ViT)の自己教師型学習を事前学習法として実現した。
画像分類タスクと下流密度予測タスクに関する自己教師付き事前学習手法のベンチマークを行った。
バニラ・ライトウェイトなViTでさえ、デリケートなアーキテクチャ設計を持つ以前のSOTAネットワークに匹敵する性能を示している。
論文 参考訳(メタデータ) (2022-05-28T14:14:57Z) - Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking [58.14267480293575]
オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
論文 参考訳(メタデータ) (2021-12-28T06:51:18Z) - Benchmarking Detection Transfer Learning with Vision Transformers [60.97703494764904]
オブジェクト検出メソッドの複雑さは、ViT(Vision Transformer)モデルのような新しいアーキテクチャが到着するときに、ベンチマークを非簡単にする。
本研究では,これらの課題を克服し,標準的なVTモデルをMask R-CNNのバックボーンとして活用する訓練手法を提案する。
その結果,最近のマスキングに基づく教師なし学習手法は,COCOにおける説得力のあるトランスファー学習改善をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-22T18:59:15Z) - Sim-to-real reinforcement learning applied to end-to-end vehicle control [0.0]
本研究では車線追従や衝突回避といった車両制御問題のエンドツーエンド強化学習について検討する。
我々の制御ポリシーでは、実際の2車線の道路の右車線を追従するために小型ロボットを制御できますが、その訓練はシミュレーションでのみ行われました。
論文 参考訳(メタデータ) (2020-12-14T12:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。