論文の概要: Why Look at It at All?: Vision-Free Multifingered Blind Grasping Using Uniaxial Fingertip Force Sensing
- arxiv url: http://arxiv.org/abs/2602.07326v1
- Date: Sat, 07 Feb 2026 02:57:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:41.248803
- Title: Why Look at It at All?: Vision-Free Multifingered Blind Grasping Using Uniaxial Fingertip Force Sensing
- Title(参考訳): 視力のない多指型ブラインドグラフピング : 一軸フィンガープ力センシングによる検討
- Authors: Edgar Lee, Junho Choi, Taemin Kim, Changjoo Nam, Seokhwan Jeong,
- Abstract要約: この研究は、極めて最小限のセンシングの下で、信頼性の高い多指握りを実現することを実証している。
我々は、強化学習した教師が特権化されたシミュレーションのみの観察を活用できる効率的な教師学生訓練パイプラインを採用している。
本稿では,18個のオブジェクトにまたがる実ハードウェアにおける本提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 7.780340853694573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Grasping under limited sensing remains a fundamental challenge for real-world robotic manipulation, as vision and high-resolution tactile sensors often introduce cost, fragility, and integration complexity. This work demonstrates that reliable multifingered grasping can be achieved under extremely minimal sensing by relying solely on uniaxial fingertip force feedback and joint proprioception, without vision or multi-axis/tactile sensing. To enable such blind grasping, we employ an efficient teacher-student training pipeline in which a reinforcement-learned teacher exploits privileged simulation-only observations to generate demonstrations for distilling a transformer-based student policy operating under partial observation. The student policy is trained to act using only sensing modalities available at real-world deployment. We validate the proposed approach on real hardware across 18 objects, including both in-distribution and out-of-distribution cases, achieving a 98.3~$\%$ overall grasp success rate. These results demonstrate strong robustness and generalization beyond the simulation training distribution, while significantly reducing sensing requirements for real-world grasping systems.
- Abstract(参考訳): 視覚と高解像度の触覚センサーは、コスト、脆弱性、統合の複雑さをもたらすことが多い。
この研究は、視覚や多軸・触覚を使わずに、一軸指先力フィードバックと関節先入観にのみ依存することにより、信頼性の高いマルチフィンガードグルーピングを極端に最小限の感覚下で達成できることを実証した。
このようなブラインドグルーピングを可能にするために、強化学習した教師が特権化されたシミュレーションのみの観察を利用して、部分的な観察の下で動作しているトランスフォーマーベースの学生政策を蒸留するデモを生成する効率的な教師学生訓練パイプラインを用いる。
学生政策は、実世界の展開で利用可能なモダリティのみを使用して行動するよう訓練されている。
我々は,18個のオブジェクトにまたがる実ハードウェアに対する提案手法の有効性を検証し,分布内および分布外の両方を対象とし,98.3~$\%の総合的把握成功率を達成した。
これらの結果は,シミュレーション学習分布を超える強靭性および一般化を示すとともに,実世界の把握システムに対する検知要求を著しく低減する。
関連論文リスト
- UniForce: A Unified Latent Force Model for Robot Manipulation with Diverse Tactile Sensors [51.88112610411651]
そこで本研究では,多様な触覚センサにまたがる共用潜在力空間を学習する,新しい統合された触覚表現学習フレームワークを提案する。
UniForceは、逆ダイナミクス(image-to-force)とフォワードダイナミクス(force-to-image)を共同モデリングすることで、クロスセンサー領域シフトを低減する
高価な外部力/トルクセンサ(F/T)への依存を避けるため,静的平衡を利用して直接センサ・オブジェクト・センサ・インタラクションを介して力対効果データを収集する。
論文 参考訳(メタデータ) (2026-02-01T11:03:01Z) - Simultaneous Tactile-Visual Perception for Learning Multimodal Robot Manipulation [21.78866976181311]
See-through-skin (STS) センサーは触覚と視覚を結合する。
既存のSTSの設計では、同時的なマルチモーダル認識が欠如し、信頼性の低い触覚追跡に悩まされている。
STSセンサであるTacThruを導入し,視覚認識と触覚信号抽出を同時に行う。
論文 参考訳(メタデータ) (2025-12-10T17:35:13Z) - VT-Refine: Learning Bimanual Assembly with Visuo-Tactile Feedback via Simulation Fine-Tuning [39.49846628626501]
人間は、リッチな触覚フィードバックに適応することで、バイマニュアルアセンブリータスクで卓越する。
VT-Refineは、実世界の実演、高忠実度触覚シミュレーション、強化学習を組み合わせた、ビジュオ触覚政策学習フレームワークである。
論文 参考訳(メタデータ) (2025-10-16T17:41:36Z) - Dexplore: Scalable Neural Control for Dexterous Manipulation from Reference-Scoped Exploration [58.4036440289082]
ハンドオブジェクトモーションキャプチャ(MoCap)は、大規模でコンタクトに富んだデモと、器用なロボットスコープの約束を提供する。
Dexploreは、リポジトリとトラッキングを実行し、MoCapから直接ロボット制御ポリシーを学習する、統一された単一ループ最適化である。
論文 参考訳(メタデータ) (2025-09-11T17:59:07Z) - Touch in the Wild: Learning Fine-Grained Manipulation with a Portable Visuo-Tactile Gripper [7.618517580705364]
触覚センサーを内蔵した携帯型軽量グリップについて述べる。
視覚信号と触覚信号を統合するクロスモーダル表現学習フレームワークを提案する。
試験管挿入や管状流体移動などの細粒度タスクに対する本手法の有効性を検証した。
論文 参考訳(メタデータ) (2025-07-20T17:53:59Z) - Sim-to-Real Reinforcement Learning for Vision-Based Dexterous Manipulation on Humanoids [56.892520712892804]
本稿では,ヒューマノイドロボットを訓練して3つの巧妙な操作を行う,実用的なシミュレート・トゥ・リアルなRLレシピを提案する。
未確認のオブジェクトやロバストで適応的な政策行動に対して高い成功率を示す。
論文 参考訳(メタデータ) (2025-02-27T18:59:52Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Residual Reinforcement Learning from Demonstrations [51.56457466788513]
報酬信号の最大化のために,従来のフィードバックコントローラからの制御動作を適用することで,ロボット作業の課題を解決する手段として,残留強化学習(Residual reinforcement learning, RL)が提案されている。
視覚的インプットから学習するための残差定式化を拡張し,実演を用いて報酬をスパースする。
6-DoFのUR5アームと28-DoFのデキスタラスハンドのシミュレーション操作に関する実験的評価は、デモからの残留RLが、行動クローニングやRL微調整よりも柔軟に、見えない環境条件に一般化できることを実証している。
論文 参考訳(メタデータ) (2021-06-15T11:16:49Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Understanding Multi-Modal Perception Using Behavioral Cloning for
Peg-In-a-Hole Insertion Tasks [21.275342989110978]
本稿では,実世界の組立作業における制御器を学習するために,複数のセンサモードが組み合わさった場合の利点について検討する。
動作クローン法の性能を向上させるために, マルチステップ・アヘッド・ロス関数を提案する。
論文 参考訳(メタデータ) (2020-07-22T19:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。