論文の概要: Learning In-Hand Translation Using Tactile Skin With Shear and Normal Force Sensing
- arxiv url: http://arxiv.org/abs/2407.07885v1
- Date: Wed, 10 Jul 2024 17:52:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 15:33:18.724653
- Title: Learning In-Hand Translation Using Tactile Skin With Shear and Normal Force Sensing
- Title(参考訳): 触覚皮膚による手指内翻訳の学習 : せん断・正常力センシングを用いて
- Authors: Jessica Yin, Haozhi Qi, Jitendra Malik, James Pikul, Mark Yim, Tess Hellebrekers,
- Abstract要約: 3次せん断力と2次正規力のゼロショット・シミュレートを可能にする触覚皮膚センサモデルを提案する。
触覚センシングが様々な未確認オブジェクト特性へのポリシー適応をどのように促進するかを評価するために、広範囲な実世界の実験を行う。
- 参考スコア(独自算出の注目度): 43.269672740168396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent progress in reinforcement learning (RL) and tactile sensing has significantly advanced dexterous manipulation. However, these methods often utilize simplified tactile signals due to the gap between tactile simulation and the real world. We introduce a sensor model for tactile skin that enables zero-shot sim-to-real transfer of ternary shear and binary normal forces. Using this model, we develop an RL policy that leverages sliding contact for dexterous in-hand translation. We conduct extensive real-world experiments to assess how tactile sensing facilitates policy adaptation to various unseen object properties and robot hand orientations. We demonstrate that our 3-axis tactile policies consistently outperform baselines that use only shear forces, only normal forces, or only proprioception. Website: https://jessicayin.github.io/tactile-skin-rl/
- Abstract(参考訳): 近年の強化学習 (RL) と触覚感覚の進歩は, デキスタス操作を著しく進歩させた。
しかし,これらの手法は触覚シミュレーションと実世界とのギャップにより,簡易な触覚信号を利用することが多い。
3次せん断力と2次正規力のゼロショット・シミュレートを可能にする触覚皮膚センサモデルを提案する。
このモデルを用いて,手書き内訳にスライディングコンタクトを利用するRLポリシーを開発した。
触覚知覚が様々な未確認物体の特性やロボットの手の向きにどう適応するかを評価するために、広範囲にわたる実世界の実験を行った。
私たちの3軸触覚ポリシーは、せん断力のみ、正常力のみ、あるいはプロプレセプションのみを使用するベースラインを一貫して上回ります。
Webサイト: https://jessicayin.github.io/tactile-skin-rl/
関連論文リスト
- AnySkin: Plug-and-play Skin Sensing for Robotic Touch [15.126846563910814]
触覚センシング(多目的性、置換性、データ再利用性)の使用を妨げる課題に対処する。
本研究は,AnySkinセンサによるスリップ検出とポリシー学習を特徴付けるとともに,AnySkinのインスタンス上でトレーニングされたモデルのゼロショット一般化を新しいインスタンスに示す。
論文 参考訳(メタデータ) (2024-09-12T17:59:44Z) - AnyRotate: Gravity-Invariant In-Hand Object Rotation with Sim-to-Real Touch [9.606323817785114]
我々は,高密度のsim-to-realタッチを用いた重力不変多軸物体回転システムであるAnyRotateを提案する。
我々の定式化により、統一されたポリシーの訓練により、任意の回転軸に関する未知の物体を任意の方向で回転させることができる。
リッチな多指触覚センシングは不安定な把握を検知し、ポリシーの堅牢性を改善するリアクティブな振る舞いを提供する。
論文 参考訳(メタデータ) (2024-05-12T22:51:35Z) - VITaL Pretraining: Visuo-Tactile Pretraining for Tactile and Non-Tactile Manipulation Policies [8.187196813233362]
触覚情報を模倣学習プラットフォームに組み込んで操作タスクのパフォーマンスを向上させる方法について述べる。
触覚前訓練を取り入れることで,触覚エージェントだけでなく,模倣学習性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-18T15:56:44Z) - Rotating without Seeing: Towards In-hand Dexterity through Touch [43.87509744768282]
本稿では,タッチデクスタリティ(Touch Dexterity)を提案する。
小さな領域で正確な触覚センサーに頼る代わりに、ロボットハンドの片側をオーバーレイする密度の高い二分力センサー(タッチまたはタッチなし)を用いた新しいシステム設計を導入する。
我々は,各種物体のシミュレーションに強化学習を用いて手動回転ポリシーを訓練する。タッチオンリーセンシングを応用して,実際のロボットの手で直接ポリシーを展開し,トレーニングで提示されていない新規物体を回転させることができる。
論文 参考訳(メタデータ) (2023-03-20T05:38:30Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - TACTO: A Fast, Flexible and Open-source Simulator for High-Resolution
Vision-based Tactile Sensors [8.497185333795477]
TACTOは、視覚ベースの触覚センサのための高速で柔軟でオープンソースのシミュレータです。
リアルな高解像度のタッチ読み取りを毎秒数百フレームでレンダリングできる。
我々は,100万の把握から触覚による把握安定性の予測を学習することにより,知覚タスクにおけるTACTOの実証を行う。
論文 参考訳(メタデータ) (2020-12-15T17:54:07Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。