論文の概要: Emergence of Different Modes of Tool Use in a Reaching and Dragging Task
- arxiv url: http://arxiv.org/abs/2012.04700v1
- Date: Tue, 8 Dec 2020 19:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 00:54:30.509715
- Title: Emergence of Different Modes of Tool Use in a Reaching and Dragging Task
- Title(参考訳): 到達・引きずり作業における異なる工具使用形態の出現
- Authors: Khuong Nguyen and Yoonsuck Choe
- Abstract要約: 本稿では,手を伸ばしたり引きずったりする作業で現れるツールの異なるモードについて検討する。
我々は,この課題に対処するための報奨情報を最小限に抑えた深層強化学習ベースコントローラを訓練した。
我々は、モータープリミティブや報酬関数に直接エンコードされない、幅広い予期せぬ行動の出現を観察した。
- 参考スコア(独自算出の注目度): 7.40839907166763
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Tool use is an important milestone in the evolution of intelligence. In this
paper, we investigate different modes of tool use that emerge in a reaching and
dragging task. In this task, a jointed arm with a gripper must grab a tool (T,
I, or L-shaped) and drag an object down to the target location (the bottom of
the arena). The simulated environment had real physics such as gravity and
friction. We trained a deep-reinforcement learning based controller (with raw
visual and proprioceptive input) with minimal reward shaping information to
tackle this task. We observed the emergence of a wide range of unexpected
behaviors, not directly encoded in the motor primitives or reward functions.
Examples include hitting the object to the target location, correcting error of
initial contact, throwing the tool toward the object, as well as normal
expected behavior such as wide sweep. Also, we further analyzed these behaviors
based on the type of tool and the initial position of the target object. Our
results show a rich repertoire of behaviors, beyond the basic built-in
mechanisms of the deep reinforcement learning method we used.
- Abstract(参考訳): ツールの使用は、インテリジェンスの発展において重要なマイルストーンです。
本稿では,手を伸ばしたり引きずったりする作業で現れるツールの異なるモードについて検討する。
この作業では、グリッパー付きの接合アームは、工具(t、i、l形)をつかみ、対象の場所(アリーナの底)まで物体を引きずらさなければならない。
シュミレーション環境は、重力や摩擦のような実際の物理を持っていた。
我々は,この課題に対処するための報奨情報を最小限に抑えた,深層強化学習ベースコントローラ(生の視覚的および固有受容的入力)を訓練した。
我々は、モータープリミティブや報酬関数に直接エンコードされない、幅広い予期せぬ行動の出現を観察した。
例えば、対象の場所にオブジェクトをぶつける、初期接触のエラーを修正する、ツールをオブジェクトに向かって投げる、ワイド・スイープのような通常の振る舞いなどである。
また,ツールの種類と対象対象物の初期位置に基づいて,これらの挙動を解析した。
以上の結果から,我々は深層強化学習法の基本機構以上の行動の再現性を示した。
関連論文リスト
- Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [59.87033229815062]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Learning Extrinsic Dexterity with Parameterized Manipulation Primitives [8.7221770019454]
我々は、オブジェクトのポーズを変えるために環境を利用する一連のアクションを学習する。
我々のアプローチは、オブジェクトとグリップと環境の間の相互作用を利用してオブジェクトの状態を制御することができる。
拘束されたテーブルトップワークスペースから様々な重量,形状,摩擦特性の箱状物体を選別する手法の評価を行った。
論文 参考訳(メタデータ) (2023-10-26T21:28:23Z) - Localizing Active Objects from Egocentric Vision with Symbolic World
Knowledge [62.981429762309226]
タスクの指示をエゴセントリックな視点から積極的に下す能力は、AIエージェントがタスクを達成したり、人間をバーチャルに支援する上で不可欠である。
本稿では,現在進行中のオブジェクトの役割を学習し,指示から正確に抽出することで,アクティブなオブジェクトをローカライズするフレーズグラウンドモデルの性能を向上させることを提案する。
Ego4DおよびEpic-Kitchensデータセットに関するフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-10-23T16:14:05Z) - Learning Generalizable Tool-use Skills through Trajectory Generation [13.879860388944214]
4つの異なる変形可能なオブジェクト操作タスクで1つのモデルをトレーニングします。
モデルは様々な新しいツールに一般化され、ベースラインを大幅に上回る。
トレーニングされたポリシーを、目に見えないツールを使って現実世界でテストし、人間に匹敵するパフォーマンスを実現します。
論文 参考訳(メタデータ) (2023-09-29T21:32:42Z) - Is an Object-Centric Video Representation Beneficial for Transfer? [86.40870804449737]
トランスアーキテクチャ上にオブジェクト中心のビデオ認識モデルを導入する。
対象中心モデルが先行映像表現より優れていることを示す。
論文 参考訳(メタデータ) (2022-07-20T17:59:44Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Task-Focused Few-Shot Object Detection for Robot Manipulation [1.8275108630751844]
本研究では,検出のみに基づく操作手法を開発し,タスク中心の少数ショット検出を導入し,新しいオブジェクトや設定を学習する。
数ショット学習へのインタラクティブなアプローチの実験では、ロボットに検出からオブジェクトを直接操作するように訓練する(ClickBot)。
論文 参考訳(メタデータ) (2022-01-28T21:52:05Z) - How to select and use tools? : Active Perception of Target Objects Using
Multimodal Deep Learning [9.677391628613025]
我々は,ロボットが物体と相互作用する間,マルチモーダル感覚運動子データを用いた能動的知覚に焦点を当てた。
物体の特徴を認識することを学ぶディープニューラルネットワーク(DNN)モデルを構築した。
また, 画像, 力, 触覚データのコントリビューションについても検討し, 多様なマルチモーダル情報を学習することで, ツール使用に対する認知度が向上することを示す。
論文 参考訳(メタデータ) (2021-06-04T12:49:30Z) - TANGO: Commonsense Generalization in Predicting Tool Interactions for
Mobile Manipulators [15.61285199988595]
タスク固有のツール相互作用を予測するための新しいニューラルモデルであるTANGOを紹介します。
TANGOは、グラフニューラルネットワークを使用して、オブジェクトとそれらの間のシンボリックな関係からなる世界状態をエンコードする。
知識ベースから学習した組込みによる環境表現の強化により,新しい環境に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2021-05-05T18:11:57Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。