論文の概要: All the Feels: A dexterous hand with large area sensing
- arxiv url: http://arxiv.org/abs/2210.15658v1
- Date: Thu, 27 Oct 2022 17:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 15:58:41.205386
- Title: All the Feels: A dexterous hand with large area sensing
- Title(参考訳): All the Feels:大面積センサ付き豪華な手
- Authors: Raunaq Bhirangi, Abigail DeFranco, Jacob Adkins, Carmel Majidi,
Abhinav Gupta, Tess Hellebrekers, Vikash Kumar
- Abstract要約: 高いコストと信頼性の欠如は、ロボット工学における器用な手の普及を妨げている。
触覚センサーがなければ、手の領域全体を感知できるので、巧妙な操作スキルの学習を改善するような、リッチで低レベルなフィードバックが妨げられます。
本稿では、DManusという、安価でモジュール化され、堅牢でスケーラブルなプラットフォームを紹介します。
- 参考スコア(独自算出の注目度): 27.23615667617851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High cost and lack of reliability has precluded the widespread adoption of
dexterous hands in robotics. Furthermore, the lack of a viable tactile sensor
capable of sensing over the entire area of the hand impedes the rich, low-level
feedback that would improve learning of dexterous manipulation skills. This
paper introduces an inexpensive, modular, robust, and scalable platform - the
DManus- aimed at resolving these challenges while satisfying the large-scale
data collection capabilities demanded by deep robot learning paradigms. Studies
on human manipulation point to the criticality of low-level tactile feedback in
performing everyday dexterous tasks. The DManus comes with ReSkin sensing on
the entire surface of the palm as well as the fingertips. We demonstrate
effectiveness of the fully integrated system in a tactile aware task - bin
picking and sorting. Code, documentation, design files, detailed assembly
instructions, trained models, task videos, and all supplementary materials
required to recreate the setup can be found on
http://roboticsbenchmarks.org/platforms/dmanus
- Abstract(参考訳): 高いコストと信頼性の欠如は、ロボット工学におけるデクスタラスハンドの普及を妨げている。
さらに、手の全領域を感知できる実用的な触覚センサーの欠如は、高度な操作スキルの学習を改善するリッチで低レベルなフィードバックを妨げている。
本稿では,ロボット学習パラダイムが要求する大規模データ収集能力を満たしつつ,これらの課題を解決することを目的とした,安価でモジュール化された,堅牢でスケーラブルなプラットフォームDManusを紹介する。
人間の操作に関する研究は、日常作業における低レベルの触覚フィードバックの臨界性を示している。
dmanusには、手のひらの表面だけでなく指先全体に対する反射センサーが付いている。
触覚認識タスク - ビン選択とソート - における完全統合システムの有効性を実証する。
コード、ドキュメンテーション、デザインファイル、詳細なアセンブリ命令、トレーニングされたモデル、タスクビデオ、セットアップを再現するために必要な追加資料はすべてhttp://roboticsbenchmarks.org/platforms/dmanusにある。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - 3D-ViTac: Learning Fine-Grained Manipulation with Visuo-Tactile Sensing [18.189782619503074]
本稿では,ロボットのためのマルチモーダルセンシング学習システムであるtextbf3D-ViTacを紹介する。
このシステムは、高密度センシングユニットを備えた触覚センサーを備えており、それぞれが3$mm2$の面積をカバーしている。
低コストのロボットでも精密な操作が可能であり、視覚のみのポリシーよりもはるかに優れていることを示す。
論文 参考訳(メタデータ) (2024-10-31T16:22:53Z) - Learning Visuotactile Skills with Two Multifingered Hands [80.99370364907278]
マルチフィンガーハンドとバイソタクティブルデータを用いたバイマニアルシステムを用いて,人間の実演からの学習を探索する。
以上の結果から,バイスオタクティブルデータからの両指多指操作における有望な進歩が示唆された。
論文 参考訳(メタデータ) (2024-04-25T17:59:41Z) - A model-free approach to fingertip slip and disturbance detection for
grasp stability inference [0.0]
触覚センサを用いた握り安定性の評価手法を提案する。
我々は、アレグロハンドに搭載された高感度のウスキン触覚センサーを用いて、我々の手法を検証、検証した。
論文 参考訳(メタデータ) (2023-11-22T09:04:26Z) - RoboPianist: Dexterous Piano Playing with Deep Reinforcement Learning [61.10744686260994]
本稿では,150曲のピアノ作品の大規模なレパートリーをシミュレートして学習するシステムであるRoboPianistを紹介する。
また,オープンソース環境,タスクのベンチマーク,解釈可能な評価指標,今後の研究課題についても紹介する。
論文 参考訳(メタデータ) (2023-04-09T03:53:05Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Bayesian Imitation Learning for End-to-End Mobile Manipulation [80.47771322489422]
RGB + 深度カメラのような追加のセンサー入力によるポリシーの強化は、ロボットの知覚能力を改善するための簡単なアプローチである。
畳み込みニューラルネットワークを正規化するために変分情報ボトルネックを用いることで、保持領域への一般化が向上することを示す。
提案手法は, シミュレーションと現実のギャップを埋めることと, RGBと奥行き変調をうまく融合できることを実証する。
論文 参考訳(メタデータ) (2022-02-15T17:38:30Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。