論文の概要: Visuotactile Affordances for Cloth Manipulation with Local Control
- arxiv url: http://arxiv.org/abs/2212.05108v1
- Date: Fri, 9 Dec 2022 20:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 18:34:22.807504
- Title: Visuotactile Affordances for Cloth Manipulation with Local Control
- Title(参考訳): 局所制御による布操作用振動触手
- Authors: Neha Sunil, Shaoxiong Wang, Yu She, Edward Adelson, and Alberto
Rodriguez
- Abstract要約: 本稿では,視覚的および触覚的知覚を利用して,縁をつかんで滑らせることで布を広げるシステムを提案する。
我々は、エッジが把握されているかどうかを分類し、エッジのポーズを推定する触覚知覚ネットワークを開発する。
触覚ポーズ推定/制御をリアルタイムで行うことで,ロボットが布地に沿って隣の隅までスライドできることを実証する。
- 参考スコア(独自算出の注目度): 9.492274112863024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cloth in the real world is often crumpled, self-occluded, or folded in on
itself such that key regions, such as corners, are not directly graspable,
making manipulation difficult. We propose a system that leverages visual and
tactile perception to unfold the cloth via grasping and sliding on edges. By
doing so, the robot is able to grasp two adjacent corners, enabling subsequent
manipulation tasks like folding or hanging. As components of this system, we
develop tactile perception networks that classify whether an edge is grasped
and estimate the pose of the edge. We use the edge classification network to
supervise a visuotactile edge grasp affordance network that can grasp edges
with a 90% success rate. Once an edge is grasped, we demonstrate that the robot
can slide along the cloth to the adjacent corner using tactile pose
estimation/control in real time. See
http://nehasunil.com/visuotactile/visuotactile.html for videos.
- Abstract(参考訳): 現実世界の衣服は、しばしばクランプ、自己隠蔽、あるいはそれ自体に折り畳まれ、コーナーなどの重要な領域が直接把握できないため、操作が困難になる。
本研究では,視覚的および触覚的知覚を利用して,縁をつかんで布を広げるシステムを提案する。
そうすることで、ロボットは隣接する2つの角を掴むことができ、折りたたみや吊り下げなどの操作が可能になる。
このシステムの構成要素として,エッジが把握されているか否かを分類し,エッジのポーズを推定する触覚知覚ネットワークを開発した。
エッジ分類ネットワークを用いて,90%の成功率でエッジを把握可能な自在なエッジ把握アフォーダンスネットワークを監督する。
エッジを掴むと、触覚的なポーズ推定/制御をリアルタイムで、ロボットが布に沿って隣の角にスライドできることを実証する。
ビデオはhttp://nehasunil.com/visuotactile/visuotactile.htmlを参照。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Attention for Robot Touch: Tactile Saliency Prediction for Robust
Sim-to-Real Tactile Control [12.302685367517718]
高解像度触覚センサーは、接触に富むロボットタスクにおける局所的な接触に関する情報を正確に提供することができる。
我々は,神経科学の人間のタッチアテンション機構にヒントを得た,ロボットタッチのためのテクスティタクティル・サリエンシ(textittactile saliency)という新しい概念を研究した。
論文 参考訳(メタデータ) (2023-07-26T21:19:45Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Planning Visual-Tactile Precision Grasps via Complementary Use of Vision
and Touch [9.31776719215139]
そこで本研究では,指先が対象物表面と接触すべき場所について,明確な理由を解明する手法を提案する。
提案手法の成功の鍵は,接触制約を符号化するための初期計画に視覚面推定を用いることである。
提案手法は,1つのカメラビューからの表面推定値を用いて,これまで見つからなかった物体に対して,精度の高いグリップを合成し,実行可能であることを示す。
論文 参考訳(メタデータ) (2022-12-16T17:32:56Z) - Semi-Supervised Disentanglement of Tactile Contact~Geometry from
Sliding-Induced Shear [12.004939546183355]
触覚は人間の器用さに根ざしている。
ロボットタッチ、特にソフトな光触覚センサーで模倣すると、動きに依存したせん断による歪みに悩まされる。
本研究では,接触情報のみを保存しながらせん断を除去する半教師付き手法を提案する。
論文 参考訳(メタデータ) (2022-08-26T08:30:19Z) - Traditional methods in Edge, Corner and Boundary detection [0.0]
エッジ、コーナー、境界検出の多くの実世界の応用がある。
自動運転車のような現代のイノベーションでは、エッジ検出とセグメンテーションが最も重要になっている。
実世界の画像は検出器の性能と限界を検証するために使用される。
論文 参考訳(メタデータ) (2022-08-12T22:26:05Z) - N-Cloth: Predicting 3D Cloth Deformation with Mesh-Based Networks [69.94313958962165]
本稿では,3次元布の変形予測のためのメッシュに基づく新しい学習手法(N-Cloth)を提案する。
グラフ畳み込みを用いて、メッシュ空間の非線形性を低減するために、布とメッシュを潜在空間に変換する。
我々のアプローチは、SMPL人間、非SMPL人間、または剛体に対応する様々な物体で、最大100ドルの三角形とシーンを持つ複雑な布メッシュを扱うことができる。
論文 参考訳(メタデータ) (2021-12-13T03:13:11Z) - Z2P: Instant Rendering of Point Clouds [104.1186026323896]
ニューラルネットワークを用いて点雲をレンダリングする手法を提案する。
既存のポイントレンダリング技術は、スプレイティングを使用するか、最初にレンダリング可能な表面メッシュを再構築する。
論文 参考訳(メタデータ) (2021-05-30T13:58:24Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。