論文の概要: Vision-Guided Grasp Planning for Prosthetic Hands in Unstructured Environments
- arxiv url: http://arxiv.org/abs/2512.06517v1
- Date: Sat, 06 Dec 2025 18:02:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.171066
- Title: Vision-Guided Grasp Planning for Prosthetic Hands in Unstructured Environments
- Title(参考訳): 非構造環境における義手のための視覚誘導グラスプランニング
- Authors: Shifa Sulaiman, Akash Bachhar, Ming Shen, Simon Bøgh,
- Abstract要約: 本稿では,義手に対する視覚誘導型グルーピングアルゴリズムを提案する。
知覚、計画、制御を統合して、巧妙な操作を行う。
提案手法はシミュレーションで検証され,Linker Hand O7プラットフォーム上での実験的な統合が可能である。
- 参考スコア(独自算出の注目度): 1.3926567607243003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in prosthetic technology have increasingly focused on enhancing dexterity and autonomy through intelligent control systems. Vision-based approaches offer promising results for enabling prosthetic hands to interact more naturally with diverse objects in dynamic environments. Building on this foundation, the paper presents a vision-guided grasping algorithm for a prosthetic hand, integrating perception, planning, and control for dexterous manipulation. A camera mounted on the set up captures the scene, and a Bounding Volume Hierarchy (BVH)-based vision algorithm is employed to segment an object for grasping and define its bounding box. Grasp contact points are then computed by generating candidate trajectories using Rapidly-exploring Random Tree Star algorithm, and selecting fingertip end poses based on the minimum Euclidean distance between these trajectories and the objects point cloud. Each finger grasp pose is determined independently, enabling adaptive, object-specific configurations. Damped Least Square (DLS) based Inverse kinematics solver is used to compute the corresponding joint angles, which are subsequently transmitted to the finger actuators for execution. This modular pipeline enables per-finger grasp planning and supports real-time adaptability in unstructured environments. The proposed method is validated in simulation, and experimental integration on a Linker Hand O7 platform.
- Abstract(参考訳): 近年の人工装具技術の進歩は、インテリジェント制御システムによるデキスタリティと自律性の向上にますます焦点が当てられている。
視覚に基づくアプローチは、動的環境における多様な物体とのより自然な相互作用を可能にするための有望な結果を提供する。
この基礎の上に構築された本論文では,義手に対する視覚誘導的把握アルゴリズムについて述べる。
設定されたカメラがシーンをキャプチャし、バウンディングボリューム階層(BVH)ベースの視覚アルゴリズムを使用して、そのバウンディングボックスを把握して定義する。
次に、急速探索したランダムツリースターアルゴリズムを用いて候補軌跡を生成し、これらの軌跡と対象点雲との間の最小ユークリッド距離に基づいて指先ポーズを選択することにより、グラフ接触点を算出する。
各指のグリップポーズは独立して決定され、適応的なオブジェクト固有の構成が可能である。
ダンプリーストスクエア(DLS)ベースの逆キネマティクスソルバを用いて対応する関節角度を計算し、その後指アクチュエータに送信して実行させる。
このモジュールパイプラインは、フィンガー単位のグリップ計画を可能にし、非構造化環境におけるリアルタイム適応性をサポートする。
提案手法はシミュレーションで検証され,Linker Hand O7プラットフォーム上での実験的な統合が可能である。
関連論文リスト
- Leveraging CVAE for Joint Configuration Estimation of Multifingered Grippers from Point Cloud Data [1.3124513975412255]
本稿では,多関節鎖の点雲データのみから多指グリップの関節構成を決定するための効率的な手法を提案する。
本研究では,重要な構造要素の点クラウドデータを入力として取り込んだ条件変分自動エンコーダ(CVAE)を用いて,対応する関節構成を再構築する。
我々は、Allegro Handを用いたマルチデックス把握データセットに対するアプローチを検証し、0.05ミリ秒以内で動作し、最先端の手法に匹敵する精度を実現する。
論文 参考訳(メタデータ) (2025-11-21T14:31:39Z) - SPORTS: Simultaneous Panoptic Odometry, Rendering, Tracking and Segmentation for Urban Scenes Understanding [0.0]
本稿では,全体像理解のための新しいフレームワーク SPORTS を提案する。
Video Panoptic (VPS)、Visual Odometry (VO)、Scene Renderingタスクを反復的で統一された視点に統合する。
我々の注意に基づく特徴融合は、計測、追跡、セグメンテーション、新しいビュータスクにおいて、既存の最先端の合成方法よりも優れています。
論文 参考訳(メタデータ) (2025-10-14T17:28:19Z) - PoseLess: Depth-Free Vision-to-Joint Control via Direct Image Mapping with VLM [0.0]
PoseLessはロボットハンドコントロールのための新しいフレームワークで、投影された表現を用いて2D画像を関節角に直接マッピングすることで、明示的なポーズ推定を不要にする。
提案手法では,ランダムな関節構成によって生成された合成トレーニングデータを活用し,実世界のシナリオへのゼロショット一般化とロボットから人間の手へのクロスモルフォロジー移行を実現する。
論文 参考訳(メタデータ) (2025-03-10T09:34:05Z) - Articulated Object Manipulation using Online Axis Estimation with SAM2-Based Tracking [57.942404069484134]
アーティキュレートされたオブジェクト操作は、オブジェクトの軸を慎重に考慮する必要がある、正確なオブジェクトインタラクションを必要とする。
従来の研究では、対話的な知覚を用いて関節のある物体を操作するが、通常、オープンループのアプローチは相互作用のダイナミクスを見渡すことに悩まされる。
本稿では,対話的知覚と3次元点雲からのオンライン軸推定を統合したクローズドループパイプラインを提案する。
論文 参考訳(メタデータ) (2024-09-24T17:59:56Z) - Neural Motion Fields: Encoding Grasp Trajectories as Implicit Value
Functions [65.84090965167535]
本稿では,ニューラルネットワークによってパラメータ化される暗黙的値関数として,オブジェクト点群と相対的タスク軌跡の両方を符号化する新しいオブジェクト表現であるNeural Motion Fieldsを提案する。
このオブジェクト中心表現は、SE(3)空間上の連続分布をモデル化し、サンプリングベースのMPCを利用して、この値関数を最適化することで、反応的に把握することができる。
論文 参考訳(メタデータ) (2022-06-29T18:47:05Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。