論文の概要: What AIs are not Learning (and Why): Bio-Inspired Foundation Models for Robots
- arxiv url: http://arxiv.org/abs/2404.04267v5
- Date: Mon, 22 Apr 2024 17:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 22:45:14.666672
- Title: What AIs are not Learning (and Why): Bio-Inspired Foundation Models for Robots
- Title(参考訳): AIが学習していないもの(そしてなぜ) - ロボットのためのバイオインスパイアされた基礎モデル
- Authors: Mark Stefik,
- Abstract要約: 便利なロボットを作るのは難しいし、堅牢で汎用的な自律ロボットを作るのが難しい。
現在のロボットは、手動プログラミング、数学的モデル、計画フレームワーク、強化学習を使って構築されている。
本稿では,サービスロボットが知るべきことに焦点を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is hard to build robots (including telerobots) that are useful, and harder to build autonomous robots that are robust and general. Current robots are built using manual programming, mathematical models, planning frameworks, and reinforcement learning. These methods do not lead to the leaps in performance and generality seen with deep learning, generative AI, and foundation models (FMs). Today's robots do not learn to provide home care, to be nursing assistants, or to do household chores and other services reliably. Addressing the aspirational opportunities of robot service applications requires improving the path to get there. The high cost of bipedal multi-sensory robots ("bodies") is a significant obstacle for both research and deployment. A deeper issue is that mainstream FMs ("minds") do not support sensing and acting in the world. They do not lead to robots that experiment, communicate, or collaborate. They do not lead to robots that learn from and with others. They do not lead to robots that know enough to be deployed in service applications. This paper focuses on what service robots need to know. It recommends developing experiential FMs for bootstrapping service robots.
- Abstract(参考訳): 有用なロボット(テレロボットを含む)を構築することは困難であり、堅牢で汎用的な自律ロボットを構築することは困難である。
現在のロボットは、手動プログラミング、数学的モデル、計画フレームワーク、強化学習を使って構築されている。
これらの手法は、ディープラーニング、生成AI、基礎モデル(FM)で見られるパフォーマンスと一般性の飛躍に繋がらない。
今日のロボットは、ホームケア、看護助手、家事などのサービスを確実に行うことを学ばない。
ロボットサービスアプリケーションの願望に応えるには、そこに到達するためのパスを改善する必要がある。
2足歩行ロボット(ボディ)の高コストは、研究と展開の両方において大きな障害となる。
より深い問題は、主流のFM(「ミンド」)が世界の感知と行動をサポートしないことである。
彼らは実験、コミュニケーション、協力するロボットを導いていない。
他者から学ぶロボットに繋がることはない。
それらは、サービスアプリケーションにデプロイするのに十分な知識を持つロボットにつながらない。
本稿では,サービスロボットが知るべきことに焦点を当てる。
サービスロボットのブートストラップのための経験的FMを開発することを推奨している。
関連論文リスト
- HumanoidBench: Simulated Humanoid Benchmark for Whole-Body Locomotion and Manipulation [50.616995671367704]
そこで本研究では,人型ロボットが器用な手を備えた,高次元シミュレーション型ロボット学習ベンチマークHumanoidBenchを提案する。
その結果,最先端の強化学習アルゴリズムがほとんどのタスクに支障をきたすのに対して,階層的な学習ベースラインは頑健な低レベル政策に支えられた場合,優れた性能を達成できることがわかった。
論文 参考訳(メタデータ) (2024-03-15T17:45:44Z) - Growing from Exploration: A self-exploring framework for robots based on
foundation models [13.250831101705694]
我々は、ロボットが人間の介入なしに自律的に探索し学習することを可能にするGExpというフレームワークを提案する。
幼児が世界と対話する方法に触発されて、GExpはロボットに、一連の自己生成タスクで環境を理解し、探索するように促す。
論文 参考訳(メタデータ) (2024-01-24T14:04:08Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Knowledge-Driven Robot Program Synthesis from Human VR Demonstrations [16.321053835017942]
バーチャルリアリティ(VR)におけるヒューマンタスクの実演から実行可能なロボット制御プログラムを自動生成するシステムを提案する。
我々は、人間のVRデモを意味論的に解釈するために、常識知識とゲームエンジンに基づく物理を利用する。
ロボットショッピングアシスタントにおける力覚的フェッチ・アンド・プレイスという文脈でのアプローチを実証する。
論文 参考訳(メタデータ) (2023-06-05T09:37:53Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - GenLoco: Generalized Locomotion Controllers for Quadrupedal Robots [87.32145104894754]
四足歩行ロボットのための汎用ロコモーション(GenLoco)コントローラを訓練するためのフレームワークを提案する。
本フレームワークは,多種多様な四足歩行ロボットに展開可能な汎用ロコモーションコントローラを合成する。
我々のモデルは、より一般的な制御戦略を取得し、新しいシミュレーションロボットや実世界のロボットに直接移行できることを示す。
論文 参考訳(メタデータ) (2022-09-12T15:14:32Z) - DayDreamer: World Models for Physical Robot Learning [142.11031132529524]
深層強化学習はロボット学習の一般的なアプローチであるが、学習するには大量の試行錯誤が必要となる。
ロボット学習の多くの進歩はシミュレータに依存している。
本稿では,Dreamerを4つのロボットに適用し,シミュレータを使わずに,オンラインおよび実世界で直接学習する。
論文 参考訳(メタデータ) (2022-06-28T17:44:48Z) - Back to Reality for Imitation Learning [8.57914821832517]
模倣学習と一般のロボット学習は、ロボット工学のブレークスルーではなく、機械学習のブレークスルーによって生まれた。
私たちは、現実世界のロボット学習のより良い指標は時間効率であり、人間の真のコストをモデル化するものだと考えています。
論文 参考訳(メタデータ) (2021-11-25T02:03:52Z) - Design and Development of Autonomous Delivery Robot [0.16863755729554888]
私たちは、VNITキャンパス内のパッケージを人間の通信なしで配信する自律移動ロボットプラットフォームを提示します。
この論文では、屋外環境で働く自律ロボットのパイプライン全体について説明する。
論文 参考訳(メタデータ) (2021-03-16T17:57:44Z) - Continual Learning of Visual Concepts for Robots through Limited
Supervision [9.89901717499058]
私の研究は、動的に見えない環境で継続的に学習するロボットの開発に焦点を当てています。
私は、ベンチマークデータセットで最新の結果を生成する機械学習モデルを開発します。
論文 参考訳(メタデータ) (2021-01-26T01:26:07Z) - OpenBot: Turning Smartphones into Robots [95.94432031144716]
現在のロボットは高価か、感覚豊かさ、計算能力、通信能力に重大な妥協をもたらす。
我々はスマートフォンを活用して、センサースイート、強力な計算能力、最先端通信チャネル、繁栄するソフトウェアエコシステムへのアクセスなどを備えたロボットを装備することを提案する。
われわれは50ドルの小型電気自動車を設計し、標準のAndroidスマートフォンのロボットボディとして機能する。
論文 参考訳(メタデータ) (2020-08-24T18:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。