論文の概要: Morphology-Agnostic Visual Robotic Control
- arxiv url: http://arxiv.org/abs/1912.13360v1
- Date: Tue, 31 Dec 2019 15:45:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 21:20:09.651052
- Title: Morphology-Agnostic Visual Robotic Control
- Title(参考訳): 形態非依存型視覚ロボット制御
- Authors: Brian Yang, Dinesh Jayaraman, Glen Berseth, Alexei Efros, and Sergey
Levine
- Abstract要約: MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
- 参考スコア(独自算出の注目度): 76.44045983428701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing approaches for visuomotor robotic control typically require
characterizing the robot in advance by calibrating the camera or performing
system identification. We propose MAVRIC, an approach that works with minimal
prior knowledge of the robot's morphology, and requires only a camera view
containing the robot and its environment and an unknown control interface.
MAVRIC revolves around a mutual information-based method for self-recognition,
which discovers visual "control points" on the robot body within a few seconds
of exploratory interaction, and these control points in turn are then used for
visual servoing. MAVRIC can control robots with imprecise actuation, no
proprioceptive feedback, unknown morphologies including novel tools, unknown
camera poses, and even unsteady handheld cameras. We demonstrate our method on
visually-guided 3D point reaching, trajectory following, and robot-to-robot
imitation.
- Abstract(参考訳): 既存のロボット制御のアプローチでは、カメラの校正やシステム識別を行うことによって、ロボットを事前に特徴付ける必要がある。
我々は,ロボットの形態に関する最小限の事前知識で機能するアプローチであるMAVRICを提案し,ロボットとその環境を含むカメラビューと未知の制御インタフェースを必要とする。
MAVRICは、相互情報に基づく自己認識法を中心に展開し、探索的な相互作用から数秒以内にロボット本体の視覚的な「制御点」を発見し、これらの制御点を視覚サーボに使用する。
MAVRICはロボットを不正確な動作で制御でき、プロプリセプティブなフィードバック、新しいツールを含む未知の形態、未知のカメラポーズ、さらには不安定なハンドヘルドカメラまでコントロールできる。
本稿では,視覚誘導3次元点到達,軌道追従,ロボット対ロボット模倣の方法を示す。
関連論文リスト
- Unifying 3D Representation and Control of Diverse Robots with a Single Camera [48.279199537720714]
我々は,ロボットを視覚のみからモデル化し,制御することを自律的に学習するアーキテクチャであるNeural Jacobian Fieldsを紹介する。
提案手法は,正確なクローズドループ制御を実現し,各ロボットの因果動的構造を復元する。
論文 参考訳(メタデータ) (2024-07-11T17:55:49Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Open-World Object Manipulation using Pre-trained Vision-Language Models [72.87306011500084]
ロボットが人からの指示に従うためには、人間の語彙の豊かな意味情報を繋げなければならない。
我々は、事前学習された視覚言語モデルを利用して、オブジェクト識別情報を抽出するシンプルなアプローチを開発する。
実際の移動マニピュレータにおける様々な実験において、MOOはゼロショットを様々な新しいオブジェクトカテゴリや環境に一般化する。
論文 参考訳(メタデータ) (2023-03-02T01:55:10Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Robotic Telekinesis: Learning a Robotic Hand Imitator by Watching Humans
on Youtube [24.530131506065164]
我々は、人間なら誰でもロボットの手と腕を制御できるシステムを構築します。
ロボットは、人間のオペレーターを1台のRGBカメラで観察し、その動作をリアルタイムで模倣する。
我々はこのデータを利用して、人間の手を理解するシステムを訓練し、人間のビデオストリームをスムーズで、素早く、安全に、意味論的に誘導デモに類似したロボットのハンドアーム軌道に再ターゲティングする。
論文 参考訳(メタデータ) (2022-02-21T18:59:59Z) - Look Closer: Bridging Egocentric and Third-Person Views with
Transformers for Robotic Manipulation [15.632809977544907]
視覚フィードバックから精度に基づく操作タスクを解くことは、従来のロボットシステムに必要なエンジニアリング労力を大幅に削減する可能性がある。
ロボットの手首に装着した3人称カメラと自我中心カメラの両方から視覚フィードバックを受けるロボット操作のための設定を提案する。
また,両カメラの視覚情報を効果的に融合するために,クロスビューアテンション機構を備えたトランスフォーマーを提案する。
論文 参考訳(メタデータ) (2022-01-19T18:39:03Z) - Intelligent Motion Planning for a Cost-effective Object Follower Mobile
Robotic System with Obstacle Avoidance [0.2062593640149623]
本稿では,ロボットビジョンと深層学習を用いて,必要な直線および角速度を求めるロボットシステムを提案する。
私たちが提案している新しい手法は、任意の種類の照明において、ユニークな色付けされた物体の位置を検出するのに正確である。
論文 参考訳(メタデータ) (2021-09-06T19:19:47Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。