論文の概要: Zero-shot sim-to-real transfer of tactile control policies for
aggressive swing-up manipulation
- arxiv url: http://arxiv.org/abs/2101.02680v2
- Date: Thu, 8 Apr 2021 13:33:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 13:30:49.939730
- Title: Zero-shot sim-to-real transfer of tactile control policies for
aggressive swing-up manipulation
- Title(参考訳): zero-shot sim-to-real transfer of tactile control policies for aggressive swing-up manipulation
- Authors: Thomas Bi, Carmelo Sferrazza and Raffaello D'Andrea
- Abstract要約: 本稿では,視覚ベースの触覚センサを備えたロボットが,操作対象の物理的属性を事前に知ることなく動的操作を行うことができることを示す。
異なる質量、半径、長さの極を180度の角度に振り上げることができるロボットシステムが提示されています。
これは、高次元触覚観測からのフィードバックポリシーを用いて閉ループにおける極の揺らぎ操作を制御する最初の方法である。
- 参考スコア(独自算出の注目度): 5.027571997864706
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper aims to show that robots equipped with a vision-based tactile
sensor can perform dynamic manipulation tasks without prior knowledge of all
the physical attributes of the objects to be manipulated. For this purpose, a
robotic system is presented that is able to swing up poles of different masses,
radii and lengths, to an angle of 180 degrees, while relying solely on the
feedback provided by the tactile sensor. This is achieved by developing a novel
simulator that accurately models the interaction of a pole with the soft
sensor. A feedback policy that is conditioned on a sensory observation history,
and which has no prior knowledge of the physical features of the pole, is then
learned in the aforementioned simulation. When evaluated on the physical
system, the policy is able to swing up a wide range of poles that differ
significantly in their physical attributes without further adaptation. To the
authors' knowledge, this is the first work where a feedback policy from
high-dimensional tactile observations is used to control the swing-up
manipulation of poles in closed-loop.
- Abstract(参考訳): 本稿では,視覚型触覚センサを搭載したロボットが,操作対象の物理的特性をすべて事前に把握することなく,動的操作タスクを実行できることを示す。
この目的のために、触覚センサによって提供されるフィードバックのみに頼りながら、異なる質量、半径、長さの極を180度の角度に振り上げることができるロボットシステムを提案する。
これは、ポールとソフトセンサーの相互作用を正確にモデル化する新しいシミュレータを開発することで達成される。
知覚観察履歴に基づいて条件付けされ、ポールの物理的特徴に関する事前知識を持たないフィードバックポリシーが、上記のシミュレーションで学習される。
物理システム上で評価すると、ポリシーは、さらなる適応なしに、物理的特性において著しく異なる広い範囲の極を振り上げることができる。
著者らの知る限り、これは閉ループにおけるポールの揺動操作を制御するために、高次元触覚観測からのフィードバックポリシーを用いた最初の研究である。
関連論文リスト
- Lessons from Learning to Spin "Pens" [51.9182692233916]
本研究では,ペンのような物体を回転させる能力を示すことによって,学習に基づく手動操作システムの境界を推し進める。
まず、強化学習を用いて、特権情報でオラクルポリシーを訓練し、シミュレーションにおいて高忠実度軌道データセットを生成する。
次に、これらの実世界の軌道を用いて感覚運動のポリシーを微調整し、実世界の力学に適応させる。
論文 参考訳(メタデータ) (2024-07-26T17:56:01Z) - Towards Transferring Tactile-based Continuous Force Control Policies
from Simulation to Robot [19.789369416528604]
グリップフォースコントロールは、物体に作用する力の量を制限することによって、物体を安全に操作することを目的としている。
以前の作品では、手動制御器、モデルベースのアプローチ、あるいはsim-to-realトランスファーを示さなかった。
シミュレーションで訓練されたモデルなしの深層強化学習手法を提案し,さらに微調整を行わずにロボットに移行した。
論文 参考訳(メタデータ) (2023-11-13T11:29:06Z) - General In-Hand Object Rotation with Vision and Touch [46.871539289388615]
複数の軸に沿って指先で物体を回転させるシステムであるRotateItを紹介した。
実感的かつノイズの多いビゾタクタクタブルとプロピロセプティヴな感覚入力で操作するために蒸留する。
論文 参考訳(メタデータ) (2023-09-18T17:59:25Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Visual-Tactile Multimodality for Following Deformable Linear Objects
Using Reinforcement Learning [15.758583731036007]
本稿では,視覚と触覚入力を併用して変形可能な線形物体を追従するタスクを完遂する問題について検討する。
我々は,異なる感覚モーダルを用いた強化学習エージェントを作成し,その動作をどのように促進するかを検討する。
実験の結果,視覚入力と触覚入力の両方を使用することで,最大92%の症例で作業が完了することがわかった。
論文 参考訳(メタデータ) (2022-03-31T21:59:08Z) - Nonprehensile Riemannian Motion Predictive Control [57.295751294224765]
本稿では,リアル・ツー・シムの報酬分析手法を導入し,リアルなロボット・プラットフォームに対する行動の可能性を確実に予測する。
連続的なアクション空間でオブジェクトを反応的にプッシュするクローズドループコントローラを作成します。
我々は,RMPCが乱雑な環境だけでなく,乱雑な環境においても頑健であり,ベースラインよりも優れていることを観察した。
論文 参考訳(メタデータ) (2021-11-15T18:50:04Z) - Leveraging distributed contact force measurements for slip detection: a
physics-based approach enabled by a data-driven tactile sensor [5.027571997864706]
本稿では,新たなモデルに基づくスリップ検出パイプラインについて述べる。
分散力を正確に推定する視覚ベースの触覚センサを、6自由度コボットと2フィンガーグリップパーからなる把握装置に統合した。
その結果, 形状, 材料, 重量の異なる物体を操作しながら, スリップを確実に予測できることがわかった。
論文 参考訳(メタデータ) (2021-09-23T17:12:46Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Learning Intuitive Physics with Multimodal Generative Models [24.342994226226786]
本稿では,視覚と触覚のフィードバックを融合させ,動的シーンにおける物体の動きを予測する枠組みを提案する。
我々は、接触面の高解像度マルチモーダルセンシングを提供する新しいSee-Through-your-Skin(STS)センサを使用します。
物体の静止状態を所定の初期条件から予測するシミュレーションおよび実世界の実験を通じて検証する。
論文 参考訳(メタデータ) (2021-01-12T12:55:53Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。