論文の概要: Rotating without Seeing: Towards In-hand Dexterity through Touch
- arxiv url: http://arxiv.org/abs/2303.10880v3
- Date: Wed, 22 Mar 2023 14:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 11:12:16.244028
- Title: Rotating without Seeing: Towards In-hand Dexterity through Touch
- Title(参考訳): 見ることなく回転する:タッチによるデクスタリティを目指して
- Authors: Zhao-Heng Yin, Binghao Huang, Yuzhe Qin, Qifeng Chen, Xiaolong Wang
- Abstract要約: 本稿では,タッチデクスタリティ(Touch Dexterity)を提案する。
小さな領域で正確な触覚センサーに頼る代わりに、ロボットハンドの片側をオーバーレイする密度の高い二分力センサー(タッチまたはタッチなし)を用いた新しいシステム設計を導入する。
我々は,各種物体のシミュレーションに強化学習を用いて手動回転ポリシーを訓練する。タッチオンリーセンシングを応用して,実際のロボットの手で直接ポリシーを展開し,トレーニングで提示されていない新規物体を回転させることができる。
- 参考スコア(独自算出の注目度): 43.87509744768282
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tactile information plays a critical role in human dexterity. It reveals
useful contact information that may not be inferred directly from vision. In
fact, humans can even perform in-hand dexterous manipulation without using
vision. Can we enable the same ability for the multi-finger robot hand? In this
paper, we present Touch Dexterity, a new system that can perform in-hand object
rotation using only touching without seeing the object. Instead of relying on
precise tactile sensing in a small region, we introduce a new system design
using dense binary force sensors (touch or no touch) overlaying one side of the
whole robot hand (palm, finger links, fingertips). Such a design is low-cost,
giving a larger coverage of the object, and minimizing the Sim2Real gap at the
same time. We train an in-hand rotation policy using Reinforcement Learning on
diverse objects in simulation. Relying on touch-only sensing, we can directly
deploy the policy in a real robot hand and rotate novel objects that are not
presented in training. Extensive ablations are performed on how tactile
information help in-hand manipulation.Our project is available at
https://touchdexterity.github.io.
- Abstract(参考訳): 触覚情報は人間の器用さにおいて重要な役割を果たす。
これは視覚から直接推測できない有用な接触情報を明らかにする。
実際、人間は視覚を使わずに手作業で操作することも可能である。
マルチフィンガーロボットでも同じ機能を実現できるだろうか?
本稿では,物体を目にせずに触りながら物体の回転を行うシステムであるtouch dexterityを提案する。
ロボットハンドの片側(手のひら、指のリンク、指先)を重ねて、密集した二分力センサー(タッチか無タッチか)を用いた新しいシステムデザインを導入する。
このような設計は低コストであり、オブジェクトのカバー範囲を大きくし、同時にsim2realギャップを最小化する。
シミュレーションにおいて多種多様な物体に対する強化学習を用いて手動回転ポリシーを訓練する。
タッチのみのセンシングに頼ることで、実際のロボットハンドにポリシーを直接配置し、トレーニングで提示されない新しいオブジェクトを回転させることができる。
我々のプロジェクトはhttps://touchdexterity.github.io.comで公開されている。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Built Different: Tactile Perception to Overcome Cross-Embodiment Capability Differences in Collaborative Manipulation [1.9048510647598207]
触覚は、人間とロボットのアシスタントの間で暗黙のコミュニケーションを行う強力な手段である。
本稿では,触覚がロボットシステム間での身体間差異をいかに超越させるかを検討する。
本研究では,ロボットと人間が協調して宇宙空間で物体を操る,協調作業を可能にする方法を示す。
論文 参考訳(メタデータ) (2024-09-23T10:45:41Z) - Learning In-Hand Translation Using Tactile Skin With Shear and Normal Force Sensing [43.269672740168396]
3次せん断力と2次正規力のゼロショット・シミュレートを可能にする触覚皮膚センサモデルを提案する。
触覚センシングが様々な未確認オブジェクト特性へのポリシー適応をどのように促進するかを評価するために、広範囲な実世界の実験を行う。
論文 参考訳(メタデータ) (2024-07-10T17:52:30Z) - AnyRotate: Gravity-Invariant In-Hand Object Rotation with Sim-to-Real Touch [9.606323817785114]
我々は,高密度のsim-to-realタッチを用いた重力不変多軸物体回転システムであるAnyRotateを提案する。
我々の定式化により、統一されたポリシーの訓練により、任意の回転軸に関する未知の物体を任意の方向で回転させることができる。
リッチな多指触覚センシングは不安定な把握を検知し、ポリシーの堅牢性を改善するリアクティブな振る舞いを提供する。
論文 参考訳(メタデータ) (2024-05-12T22:51:35Z) - DexTouch: Learning to Seek and Manipulate Objects with Tactile Dexterity [11.450027373581019]
視覚に頼らずに触覚で物体を操作できる多指ロボットシステムを提案する。
日常の生活を模倣するタスクのために、ロボットは触覚を使ってランダムに配置された物体を暗く操作する。
論文 参考訳(メタデータ) (2024-01-23T05:37:32Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Robot Synesthesia: In-Hand Manipulation with Visuotactile Sensing [15.970078821894758]
視覚的・触覚的な感覚入力を活用して手動操作を可能にするシステムを提案する。
ロボット・シンセシス(Robot Synesthesia)は、人間の触覚と視覚の合成にインスパイアされた、新しい点の雲に基づく触覚表現である。
論文 参考訳(メタデータ) (2023-12-04T12:35:43Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - In-Hand Object Rotation via Rapid Motor Adaptation [59.59946962428837]
指先のみを用いて手動物体の回転を実現するための簡単な適応制御器の設計と学習方法を示す。
コントローラは、円筒形物体のみのシミュレーションで完全に訓練されている。
実際のロボットの手に直接展開して、さまざまな大きさ、形状、重量をz軸上で回転させることができる。
論文 参考訳(メタデータ) (2022-10-10T17:58:45Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。