論文の概要: The utility of tactile force to autonomous learning of in-hand
manipulation is task-dependent
- arxiv url: http://arxiv.org/abs/2002.02418v1
- Date: Wed, 5 Feb 2020 06:24:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 21:55:43.446381
- Title: The utility of tactile force to autonomous learning of in-hand
manipulation is task-dependent
- Title(参考訳): 手動操作の自律学習における触覚力の有用性はタスク依存である
- Authors: Romina Mir, Ali Marjaninejad, Francisco J. Valero-Cuevas
- Abstract要約: 本稿では,3指腱を用いた手指操作の自律学習における触覚情報の役割について検討する。
2つの操作タスクを3段階の触覚で学習するのと同じ学習アルゴリズムの能力を比較した。
我々は、一般的に、感覚入力はタスクに関連する場合にのみ学習するのに役立つと結論付けている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile sensors provide information that can be used to learn and execute
manipulation tasks. Different tasks, however, might require different levels of
sensory information; which in turn likely affect learning rates and
performance. This paper evaluates the role of tactile information on autonomous
learning of manipulation with a simulated 3-finger tendon-driven hand. We
compare the ability of the same learning algorithm (Proximal Policy
Optimization, PPO) to learn two manipulation tasks (rolling a ball about the
horizontal axis with and without rotational stiffness) with three levels of
tactile sensing: no sensing, 1D normal force, and 3D force vector.
Surprisingly, and contrary to recent work on manipulation, adding 1D
force-sensing did not always improve learning rates compared to no
sensing---likely due to whether or not normal force is relevant to the task.
Nonetheless, even though 3D force-sensing increases the dimensionality of the
sensory input---which would in general hamper algorithm convergence---it
resulted in faster learning rates and better performance. We conclude that, in
general, sensory input is useful to learning only when it is relevant to the
task---as is the case of 3D force-sensing for in-hand manipulation against
gravity. Moreover, the utility of 3D force-sensing can even offset the added
computational cost of learning with higher-dimensional sensory input.
- Abstract(参考訳): 触覚センサは操作タスクの学習と実行に使用できる情報を提供する。
しかし、異なるタスクは、異なるレベルの感覚情報を必要とする可能性がある。
本稿では,3指腱を用いた手指操作の自律学習における触覚情報の役割について検討する。
同じ学習アルゴリズム(近方針最適化、ppo)の2つの操作タスク(球を回転剛性で水平軸回りに回転させる)と触覚センシングの3レベル(無感知、1次元正常力、3次元力ベクトル)を学習する能力を比較した。
驚くべきことに、最近の操作作業とは対照的に、1次元の力センシングは、通常の力がタスクに関係しているかどうかを理由として、センシングなしよりも学習率を常に向上させたわけではない。
それでも、3次元力センシングは感覚入力の次元性を増大させるが、アルゴリズムの収束を妨げ、学習速度が向上し、性能が向上した。
一般に、感覚入力はタスクに関係のある場合にのみ学習に有用であり、重力に対して手作業で操作する3次元力センシングの場合と結論づける。
さらに,3次元力覚の有効性は,高次元感覚入力による追加の計算コストを相殺することができる。
関連論文リスト
- Offline Imitation Learning Through Graph Search and Retrieval [57.57306578140857]
模倣学習は、ロボットが操作スキルを取得するための強力な機械学習アルゴリズムである。
本稿では,グラフ検索と検索により,最適下実験から学習する,シンプルで効果的なアルゴリズムGSRを提案する。
GSRは、ベースラインに比べて10%から30%高い成功率、30%以上の熟練を達成できる。
論文 参考訳(メタデータ) (2024-07-22T06:12:21Z) - Curriculum Is More Influential Than Haptic Information During Reinforcement Learning of Object Manipulation Against Gravity [0.0]
指先で物体を持ち上げて回転させる学習は、自律的な手動操作に必要である。
そこで我々は,カリキュラム学習と触覚フィードバックが創発的操作の学習に果たす役割について検討した。
論文 参考訳(メタデータ) (2024-07-13T19:23:11Z) - Learning In-Hand Translation Using Tactile Skin With Shear and Normal Force Sensing [43.269672740168396]
3次せん断力と2次正規力のゼロショット・シミュレートを可能にする触覚皮膚センサモデルを提案する。
触覚センシングが様々な未確認オブジェクト特性へのポリシー適応をどのように促進するかを評価するために、広範囲な実世界の実験を行う。
論文 参考訳(メタデータ) (2024-07-10T17:52:30Z) - VITaL Pretraining: Visuo-Tactile Pretraining for Tactile and Non-Tactile Manipulation Policies [8.187196813233362]
触覚情報を模倣学習プラットフォームに組み込んで操作タスクのパフォーマンスを向上させる方法について述べる。
触覚前訓練を取り入れることで,触覚エージェントだけでなく,模倣学習性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-18T15:56:44Z) - The Power of the Senses: Generalizable Manipulation from Vision and
Touch through Masked Multimodal Learning [60.91637862768949]
強化学習環境における視覚的・触覚的情報を融合するためのマスク付きマルチモーダル学習(M3L)を提案する。
M3Lは、マスク付きオートエンコーディングに基づいて、ポリシーと視覚触覚表現を学習する。
視覚と触覚の両方の観察を行い、3つの模擬環境におけるM3Lの評価を行った。
論文 参考訳(メタデータ) (2023-11-02T01:33:00Z) - SPOT: Scalable 3D Pre-training via Occupancy Prediction for Learning Transferable 3D Representations [76.45009891152178]
トレーニング-ファインタニングアプローチは、さまざまな下流データセットとタスクをまたいだトレーニング済みのバックボーンを微調整することで、ラベル付けの負担を軽減することができる。
本稿では, 一般表現学習が, 占領予測のタスクを通じて達成できることを, 初めて示す。
本研究は,LiDAR 点の理解を促進するとともに,LiDAR の事前訓練における今後の進歩の道を開くことを目的とする。
論文 参考訳(メタデータ) (2023-09-19T11:13:01Z) - RMBench: Benchmarking Deep Reinforcement Learning for Robotic
Manipulator Control [47.61691569074207]
強化学習は、高次元の感覚入力から実際の複雑なタスクを解決するために応用される。
生の知覚信号表現における深層学習の最近の進歩
ロボット操作のための最初のベンチマークであるRMBenchを紹介する。
論文 参考訳(メタデータ) (2022-10-20T13:34:26Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Physics-Based Dexterous Manipulations with Estimated Hand Poses and
Residual Reinforcement Learning [52.37106940303246]
ノイズの多い入力ポーズをターゲットの仮想ポーズにマッピングするモデルを学習する。
モデルフリーハイブリッドRL+ILアプローチを用いて残留条件下で訓練する。
筆者らは,VRにおける手動物体の相互作用と,それを用いた手動物体の動作再構成という,手動姿勢推定を用いた2つのアプリケーションで,我々のフレームワークを検証した。
論文 参考訳(メタデータ) (2020-08-07T17:34:28Z) - Understanding Multi-Modal Perception Using Behavioral Cloning for
Peg-In-a-Hole Insertion Tasks [21.275342989110978]
本稿では,実世界の組立作業における制御器を学習するために,複数のセンサモードが組み合わさった場合の利点について検討する。
動作クローン法の性能を向上させるために, マルチステップ・アヘッド・ロス関数を提案する。
論文 参考訳(メタデータ) (2020-07-22T19:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。