論文の概要: The utility of tactile force to autonomous learning of in-hand
manipulation is task-dependent
- arxiv url: http://arxiv.org/abs/2002.02418v1
- Date: Wed, 5 Feb 2020 06:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:55:43.446381
- Title: The utility of tactile force to autonomous learning of in-hand
manipulation is task-dependent
- Title(参考訳): 手動操作の自律学習における触覚力の有用性はタスク依存である
- Authors: Romina Mir, Ali Marjaninejad, Francisco J. Valero-Cuevas
- Abstract要約: 本稿では,3指腱を用いた手指操作の自律学習における触覚情報の役割について検討する。
2つの操作タスクを3段階の触覚で学習するのと同じ学習アルゴリズムの能力を比較した。
我々は、一般的に、感覚入力はタスクに関連する場合にのみ学習するのに役立つと結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile sensors provide information that can be used to learn and execute
manipulation tasks. Different tasks, however, might require different levels of
sensory information; which in turn likely affect learning rates and
performance. This paper evaluates the role of tactile information on autonomous
learning of manipulation with a simulated 3-finger tendon-driven hand. We
compare the ability of the same learning algorithm (Proximal Policy
Optimization, PPO) to learn two manipulation tasks (rolling a ball about the
horizontal axis with and without rotational stiffness) with three levels of
tactile sensing: no sensing, 1D normal force, and 3D force vector.
Surprisingly, and contrary to recent work on manipulation, adding 1D
force-sensing did not always improve learning rates compared to no
sensing---likely due to whether or not normal force is relevant to the task.
Nonetheless, even though 3D force-sensing increases the dimensionality of the
sensory input---which would in general hamper algorithm convergence---it
resulted in faster learning rates and better performance. We conclude that, in
general, sensory input is useful to learning only when it is relevant to the
task---as is the case of 3D force-sensing for in-hand manipulation against
gravity. Moreover, the utility of 3D force-sensing can even offset the added
computational cost of learning with higher-dimensional sensory input.
- Abstract(参考訳): 触覚センサは操作タスクの学習と実行に使用できる情報を提供する。
しかし、異なるタスクは、異なるレベルの感覚情報を必要とする可能性がある。
本稿では,3指腱を用いた手指操作の自律学習における触覚情報の役割について検討する。
同じ学習アルゴリズム(近方針最適化、ppo)の2つの操作タスク(球を回転剛性で水平軸回りに回転させる)と触覚センシングの3レベル(無感知、1次元正常力、3次元力ベクトル)を学習する能力を比較した。
驚くべきことに、最近の操作作業とは対照的に、1次元の力センシングは、通常の力がタスクに関係しているかどうかを理由として、センシングなしよりも学習率を常に向上させたわけではない。
それでも、3次元力センシングは感覚入力の次元性を増大させるが、アルゴリズムの収束を妨げ、学習速度が向上し、性能が向上した。
一般に、感覚入力はタスクに関係のある場合にのみ学習に有用であり、重力に対して手作業で操作する3次元力センシングの場合と結論づける。
さらに,3次元力覚の有効性は,高次元感覚入力による追加の計算コストを相殺することができる。
関連論文リスト
- Multimodal and Force-Matched Imitation Learning with a See-Through
Visuotactile Sensor [15.116384991817092]
模倣学習のためのコンタクトリッチなタスクのロボットデモを専門的に収集するKineesthetic teaching (IL)
本研究は,第1報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2報,第2
まず,触覚信号を用いた体操教育において,ロボットが読み出した力にマッチする手法である触覚力マッチングを提案する。
第2に、STSモードの切り替えを制御し、ポリシーの学習を可能にするポリシーを開発する。
論文 参考訳(メタデータ) (2023-11-02T14:02:42Z) - The Power of the Senses: Generalizable Manipulation from Vision and
Touch through Masked Multimodal Learning [60.91637862768949]
強化学習環境における視覚的・触覚的情報を融合するためのマスク付きマルチモーダル学習(M3L)を提案する。
M3Lは、マスク付きオートエンコーディングに基づいて、ポリシーと視覚触覚表現を学習する。
視覚と触覚の両方の観察を行い、3つの模擬環境におけるM3Lの評価を行った。
論文 参考訳(メタデータ) (2023-11-02T01:33:00Z) - RMBench: Benchmarking Deep Reinforcement Learning for Robotic
Manipulator Control [47.61691569074207]
強化学習は、高次元の感覚入力から実際の複雑なタスクを解決するために応用される。
生の知覚信号表現における深層学習の最近の進歩
ロボット操作のための最初のベンチマークであるRMBenchを紹介する。
論文 参考訳(メタデータ) (2022-10-20T13:34:26Z) - Visual Reinforcement Learning with Self-Supervised 3D Representations [15.991546692872841]
運動制御のための3次元表現の自己教師型学習のための統一的な枠組みを提案する。
本手法は,2次元表現学習法と比較して,シミュレーション操作タスクにおけるサンプル効率の向上を享受する。
論文 参考訳(メタデータ) (2022-10-13T17:59:55Z) - DualAfford: Learning Collaborative Visual Affordance for Dual-gripper
Manipulation [14.964836973282594]
そこで我々は,DualAffordという新しい学習フレームワークを提案する。
この手法の中核となる設計は、2つのグリップの二次問題を2つの非絡み合った相互接続サブタスクに還元し、効率的な学習を行うことである。
論文 参考訳(メタデータ) (2022-07-05T11:30:37Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Unsupervised Learning of Visual 3D Keypoints for Control [104.92063943162896]
高次元画像からの感覚運動制御ポリシーの学習は、基礎となる視覚表現の品質に大きく依存する。
本稿では,画像から3次元幾何学的構造を直接教師なしで学習するフレームワークを提案する。
これらの発見された3Dキーポイントは、時間と3D空間の両方で一貫した方法で、ロボットの関節と物体の動きを有意義にキャプチャする傾向がある。
論文 参考訳(メタデータ) (2021-06-14T17:59:59Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z) - Understanding Multi-Modal Perception Using Behavioral Cloning for
Peg-In-a-Hole Insertion Tasks [21.275342989110978]
本稿では,実世界の組立作業における制御器を学習するために,複数のセンサモードが組み合わさった場合の利点について検討する。
動作クローン法の性能を向上させるために, マルチステップ・アヘッド・ロス関数を提案する。
論文 参考訳(メタデータ) (2020-07-22T19:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。