論文の概要: Reactive In-Air Clothing Manipulation with Confidence-Aware Dense Correspondence and Visuotactile Affordance
- arxiv url: http://arxiv.org/abs/2509.03889v1
- Date: Thu, 04 Sep 2025 05:16:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.057276
- Title: Reactive In-Air Clothing Manipulation with Confidence-Aware Dense Correspondence and Visuotactile Affordance
- Title(参考訳): 信頼性に配慮した高密度対応と Visuotactile Affordance を用いた空気中での反応性衣料操作
- Authors: Neha Sunil, Megha Tippur, Arnau Saumell, Edward Adelson, Alberto Rodriguez,
- Abstract要約: 以前のシステムは、しばしば衣服を平らにしたり、重要な特徴の可視性を仮定する。
本稿では,信頼感に敏感な視覚対応と触覚制御による把握能力を組み合わせた両腕ビゾタクティル・フレームワークを提案する。
折りたたみ作業や吊り作業においてタスク非依存のグリップ選択モジュールを実演する。
- 参考スコア(独自算出の注目度): 2.9070495263473375
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Manipulating clothing is challenging due to complex configurations, variable material dynamics, and frequent self-occlusion. Prior systems often flatten garments or assume visibility of key features. We present a dual-arm visuotactile framework that combines confidence-aware dense visual correspondence and tactile-supervised grasp affordance to operate directly on crumpled and suspended garments. The correspondence model is trained on a custom, high-fidelity simulated dataset using a distributional loss that captures cloth symmetries and generates correspondence confidence estimates. These estimates guide a reactive state machine that adapts folding strategies based on perceptual uncertainty. In parallel, a visuotactile grasp affordance network, self-supervised using high-resolution tactile feedback, determines which regions are physically graspable. The same tactile classifier is used during execution for real-time grasp validation. By deferring action in low-confidence states, the system handles highly occluded table-top and in-air configurations. We demonstrate our task-agnostic grasp selection module in folding and hanging tasks. Moreover, our dense descriptors provide a reusable intermediate representation for other planning modalities, such as extracting grasp targets from human video demonstrations, paving the way for more generalizable and scalable garment manipulation.
- Abstract(参考訳): 衣料品の操作は、複雑な構成、変化する材料力学、頻繁な自己排他性のために困難である。
以前のシステムは、しばしば衣服を平らにしたり、重要な特徴の可視性を仮定する。
本稿では,両腕のビゾタクティル・フレームワークについて,信頼性に配慮した濃密な視覚対応と触覚制御による把握能力を組み合わせて,クランプや吊り下げの衣服を直接操作する手法を提案する。
対応モデルは,布の対称性を捕捉し,信頼度を推定する分布損失を用いて,カスタマイズされた高忠実度シミュレーションデータセットに基づいて訓練される。
これらの推定は、知覚の不確実性に基づいて折り畳み戦略を適用するリアクティブステートマシンを導く。
並行して、高解像度触覚フィードバックを用いた自己教師型ビゾタクタクタクサクサスネットワークが、どの領域が物理的に把握可能かを決定する。
同じ触覚分類器が実行中にリアルタイムグリップバリデーションに使用される。
低信頼状態のアクションを遅延させることで、システムは高度に隠蔽されたテーブルトップと空気中の設定を処理する。
折りたたみ作業や吊り作業においてタスク非依存のグリップ選択モジュールを実演する。
さらに,我々の高密度ディスクリプタは,人間のビデオデモから把握対象を抽出したり,より汎用的でスケーラブルな衣料品操作を行うなど,他の計画モダリティに対する再利用可能な中間表現を提供する。
関連論文リスト
- Visual Prompting for Robotic Manipulation with Annotation-Guided Pick-and-Place Using ACT [3.281128493853064]
本稿では,アノテーションを用いた視覚的プロンプトを利用した知覚行動パイプラインを提案する。
我々は、ロボットアームが人間のデモンストレーションからチャンクされたアクションシーケンスを予測することができる模倣学習アルゴリズムとして、Action Chunking with Transformers (ACT)を採用している。
本システムは,小売環境における把握行動の成功率と視覚的分析に基づいて評価し,把握精度と適応性の向上を実証した。
論文 参考訳(メタデータ) (2025-08-12T08:45:09Z) - Stochastic Encodings for Active Feature Acquisition [100.47043816019888]
Active Feature Acquisitionは、インスタンスワイドでシーケンシャルな意思決定問題である。
目的は、テストインスタンスごとに独立して、現在の観測に基づいて計測する機能を動的に選択することである。
一般的なアプローチは強化学習(Reinforcement Learning)であり、トレーニングの困難を経験する。
我々は、教師付きで訓練された潜在変数モデルを導入し、潜在空間における観測不能な実現の可能性の多くにまたがる特徴を推論することで獲得する。
論文 参考訳(メタデータ) (2025-08-03T23:48:46Z) - Touch in the Wild: Learning Fine-Grained Manipulation with a Portable Visuo-Tactile Gripper [7.618517580705364]
触覚センサーを内蔵した携帯型軽量グリップについて述べる。
視覚信号と触覚信号を統合するクロスモーダル表現学習フレームワークを提案する。
試験管挿入や管状流体移動などの細粒度タスクに対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-07-20T17:53:59Z) - Temporal Binding Foundation Model for Material Property Recognition via Tactile Sequence Perception [2.3724852180691025]
触覚シーケンス理解のための時間的結合基盤モデルを用いた新しい手法を提案する。
提案システムは,人間の指先知覚と同様,触覚相互作用の連続的な性質を捉えている。
論文 参考訳(メタデータ) (2025-01-24T21:47:38Z) - A Robotics-Inspired Scanpath Model Reveals the Importance of Uncertainty and Semantic Object Cues for Gaze Guidance in Dynamic Scenes [8.64158103104882]
本稿では,物体のセグメンテーションと視線挙動を相互接続的にシミュレーションする計算モデルを提案する。
このモデルでは,サスカディック・モーメントや事前サカディック・アテンションなどの拡張が可能であることを示す。
論文 参考訳(メタデータ) (2024-08-02T15:20:34Z) - Grasp Pre-shape Selection by Synthetic Training: Eye-in-hand Shared
Control on the Hannes Prosthesis [6.517935794312337]
RGB 配列から手形前分類を行うための目印学習方式を提案する。
我々は、人間の腕の軌跡のモデルを用いて、眼球設定の特異性に取り組む。
論文 参考訳(メタデータ) (2022-03-18T09:16:48Z) - Stochastic Layers in Vision Transformers [85.38733795180497]
視覚変換器の完全な層を導入し,性能を著しく低下させることなく実現した。
この追加により、視覚機能の堅牢性が向上し、プライバシーが強化される。
私たちの機能は3つの異なるアプリケーション、すなわち、敵の堅牢性、ネットワークキャリブレーション、機能プライバシに使用しています。
論文 参考訳(メタデータ) (2021-12-30T16:07:59Z) - Adversarial Motion Modelling helps Semi-supervised Hand Pose Estimation [116.07661813869196]
そこで本稿では,非ラベルビデオに対人トレーニングとモーションモデリングのアイデアを組み合わせることを提案する。
本研究は,非ラベル映像系列の半教師あり学習により,逆方向が手ポーズ推定器の特性の向上につながることを示す。
このアプローチの主な利点は、ペアのトレーニングデータよりもはるかに容易に、未ペアのビデオとジョイントシーケンスデータを利用することができることです。
論文 参考訳(メタデータ) (2021-06-10T17:50:19Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。