論文の概要: Exp-Force: Experience-Conditioned Pre-Grasp Force Selection with Vision-Language Models
- arxiv url: http://arxiv.org/abs/2603.08668v1
- Date: Mon, 09 Mar 2026 17:41:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.119167
- Title: Exp-Force: Experience-Conditioned Pre-Grasp Force Selection with Vision-Language Models
- Title(参考訳): Exp-Force:視覚言語モデルを用いた経験記述型プレグラフ力選択
- Authors: Siqi Shang, Minchao Huang, Bill Fan, Lillian Chin,
- Abstract要約: 一つのRGB画像から最小到達力を予測するフレームワークExp-Forceを提案する。
129のオブジェクトインスタンスでは、ExpForceは0.43NのベストケースMAEを達成し、ゼロショット推論のエラーを72%削減する。
これらの結果はExp-Forceが信頼性と一般化可能なプレグラス力選択を可能にすることを示す。
- 参考スコア(独自算出の注目度): 0.9449650062296823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate pre-contact grasp force selection is critical for safe and reliable robotic manipulation. Adaptive controllers regulate force after contact but still require a reasonable initial estimate. Starting a grasp with too little force requires reactive adjustment, while starting a grasp with too high a force risks damaging fragile objects. This trade-off is particularly challenging for compliant grippers, whose contact mechanics are difficult to model analytically. We propose Exp-Force, an experience-conditioned framework that predicts the minimum feasible grasping force from a single RGB image. The method retrieves a small set of relevant prior grasping experiences and conditions a vision-language model on these examples for in-context inference, without analytic contact models or manually designed heuristics. On 129 object instances, ExpForce achieves a best-case MAE of 0.43 N, reducing error by 72% over zero-shot inference. In real-world tests on 30 unseen objects, it improves appropriate force selection rate from 63% to 87%. These results demonstrate that Exp-Force enables reliable and generalizable pre-grasp force selection by leveraging prior interaction experiences. http://expforcesubmission.github.io/Exp-Force-Website/
- Abstract(参考訳): 正確な接触前握力選択は、安全で信頼性の高いロボット操作に不可欠である。
適応制御器は接触後の力を調節するが、それでも合理的な初期推定が必要である。
握りを小力で始めるには、反応調整が必要で、握りを高力で始めると、壊れやすい物体にダメージを与える危険性がある。
このトレードオフは、接触力学を解析的にモデル化することが難しい、従順なグリップパーにとって特に困難である。
経験条件付きフレームワークExp-Forceを提案し、単一のRGB画像から最小到達力を予測する。
本手法は,解析的接触モデルや手動設計によるヒューリスティックスを使わずに,テキスト内推論の例に基づく視覚言語モデルについて,関連性のある事前把握経験と条件を検索する。
129のオブジェクトインスタンスでは、ExpForceは0.43NのベストケースMAEを達成し、ゼロショット推論のエラーを72%削減する。
30個の見えない物体の現実世界での試験では、適切な力選択率を63%から87%に改善する。
これらの結果から,Exp-Forceは事前の相互作用経験を生かして,信頼性と一般化可能なプレグレープ力選択を可能にした。
http://expforcesubmission.github.io/Exp-Force-Website/
関連論文リスト
- Characterization, Analytical Planning, and Hybrid Force Control for the Inspire RH56DFX Hand [2.574393697080417]
器用なロボットの手はますます普及しているが、科学機器としての使用が難しいものも多い。
我々はInspire RH56DFXに3つの改良を加えて、それをブラックボックスデバイスから研究ツールに変換する。
我々はこれらの部品を穴内挿入で検証し,成功率65%,手首力のみのベースライン10%を上回った。
論文 参考訳(メタデータ) (2026-03-09T22:25:38Z) - AMPS: Adaptive Modality Preference Steering via Functional Entropy [66.69992693275061]
本稿では,各モータリティの情報提供量を定量化し,ステアリングに対するサンプル固有の感受性を明らかにするインスタンス認識診断指標を提案する。
実験結果から, インスタンス認識のステアリングは, 従来のステアリングよりもモダリティの嗜好の調整に優れていたことが示唆された。
論文 参考訳(メタデータ) (2026-02-13T02:29:06Z) - Steerable Adversarial Scenario Generation through Test-Time Preference Alignment [58.37104890690234]
対立シナリオ生成は、自律運転システムの安全性評価のためのコスト効率の良いアプローチである。
textbfSteerable textbfAdversarial scenario textbfGEnerator (SAGE) という新しいフレームワークを導入する。
SAGEは、逆境とリアリズムの間のトレードオフを、再トレーニングなしできめ細かいテストタイムコントロールを可能にします。
論文 参考訳(メタデータ) (2025-09-24T13:27:35Z) - ForceVLA: Enhancing VLA Models with a Force-aware MoE for Contact-rich Manipulation [62.58034332427291]
ForceVLAは、新しいエンドツーエンド操作フレームワークである。
外部力センシングは、VLAシステム内の第一級のモダリティとして扱う。
論文 参考訳(メタデータ) (2025-05-28T09:24:25Z) - ForceGrip: Reference-Free Curriculum Learning for Realistic Grip Force Control in VR Hand Manipulation [0.10995326465245926]
本稿では,現実的な手操作動作を合成する深層学習エージェントであるForceGripを紹介する。
我々は、指の位置決め、意図適応、動的安定化を含む3段階のカリキュラム学習フレームワークを採用する。
以上の結果から,ForceGripの出力制御性と信頼性は最先端の手法に比べて優れていた。
論文 参考訳(メタデータ) (2025-03-11T05:39:07Z) - Learning Gentle Grasping Using Vision, Sound, and Touch [4.482495915731277]
本稿では,視覚的,触覚的,聴覚的信号を用いて物体を安定かつ優雅に把握・再生することを提案する。
把握時の優しさの指標として音声信号を使用し、生のビジュオ触覚入力から行動条件モデルを訓練する。
1500以上の握力試験を多指ハンドで行った実験結果から,本モデルは柔らかい握力に有用であることが判明した。
論文 参考訳(メタデータ) (2025-03-11T00:12:25Z) - Self-Play Preference Optimization for Language Model Alignment [75.83359213697854]
近年の進歩は、嗜好の確率で直接作業することで、人間の嗜好をより正確に反映できることを示している。
本稿では,言語モデルアライメントのためのセルフプレイ方式を提案する。
我々の手法はSPPO(Self-Play Preference Optimization)と呼ばれ、繰り返しポリシー更新を利用してナッシュ均衡を確実に近似する。
論文 参考訳(メタデータ) (2024-05-01T17:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。