論文の概要: A Vision-Enabled Prosthetic Hand for Children with Upper Limb Disabilities
- arxiv url: http://arxiv.org/abs/2504.15654v1
- Date: Tue, 22 Apr 2025 07:23:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 21:53:08.985079
- Title: A Vision-Enabled Prosthetic Hand for Children with Upper Limb Disabilities
- Title(参考訳): 上肢障害児に対する視覚機能付き義手
- Authors: Md Abdul Baset Sarker, Art Nguyen, Sigmond Kukla, Kevin Fite, Masudul H. Imtiaz,
- Abstract要約: 本稿では、上肢障害児10-12歳児を支援するために、新しいAI視覚対応型小児義肢について紹介する。
人工装具には、人為的な外観、多関節機能、そして自然の手を模倣する軽量なデザインが特徴である。
- 参考スコア(独自算出の注目度): 0.33554367023486936
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel AI vision-enabled pediatric prosthetic hand designed to assist children aged 10-12 with upper limb disabilities. The prosthesis features an anthropomorphic appearance, multi-articulating functionality, and a lightweight design that mimics a natural hand, making it both accessible and affordable for low-income families. Using 3D printing technology and integrating advanced machine vision, sensing, and embedded computing, the prosthetic hand offers a low-cost, customizable solution that addresses the limitations of current myoelectric prostheses. A micro camera is interfaced with a low-power FPGA for real-time object detection and assists with precise grasping. The onboard DL-based object detection and grasp classification models achieved accuracies of 96% and 100% respectively. In the force prediction, the mean absolute error was found to be 0.018. The features of the proposed prosthetic hand can thus be summarized as: a) a wrist-mounted micro camera for artificial sensing, enabling a wide range of hand-based tasks; b) real-time object detection and distance estimation for precise grasping; and c) ultra-low-power operation that delivers high performance within constrained power and resource limits.
- Abstract(参考訳): 本稿では、上肢障害児10-12歳児を支援するために、新しいAI視覚対応型小児義肢について紹介する。
人工装具には人為的な外観、多関節機能、そして自然の手を模倣する軽量なデザインが特徴で、低所得家庭でも手軽に使える。
3Dプリンティング技術を使用し、高度な機械ビジョン、センシング、組込みコンピューティングを統合することで、現在の筋電義肢の限界に対処する低コストでカスタマイズ可能なソリューションを提供する。
マイクロカメラは、リアルタイム物体検出のための低消費電力FPGAでインターフェースされ、正確な把握を支援する。
DLを用いた物体検出モデルと把握分類モデルは, それぞれ96%, 100%の精度を得た。
力の予測では、平均絶対誤差は0.018であることがわかった。
提案した義手の特徴は次のように要約できる。
イ 広範囲の手動作業が可能な人工センシング用の手首搭載マイクロカメラ
ロ 正確な把握のためのリアルタイム物体検出及び距離推定
c) 制約電力及び資源制限内で高い性能を実現する超低消費電力運転
関連論文リスト
- Visuo-Tactile Object Pose Estimation for a Multi-Finger Robot Hand with Low-Resolution In-Hand Tactile Sensing [9.970043211592058]
把握された物体の正確な3Dポーズ推定は、ロボットが組み立てや手動操作を行うための重要な前提条件である。
本稿では,視覚情報とプロバイオセプションを2値の低解像度触覚接触測定と組み合わせることで,この問題を軽減することを提案する。
論文 参考訳(メタデータ) (2025-03-25T17:53:53Z) - Validation of Human Pose Estimation and Human Mesh Recovery for Extracting Clinically Relevant Motion Data from Videos [79.62407455005561]
人間のポーズ推定を用いたマーカーレスモーションキャプチャは、IMUとMoCapのキネマティクスの結果とインラインで結果を生成する。
生成するデータの品質に関してはまだ改善の余地がありますが、この妥協はエラーの部屋にあると考えています。
論文 参考訳(メタデータ) (2025-03-18T22:18:33Z) - AI-Powered Camera and Sensors for the Rehabilitation Hand Exoskeleton [0.393259574660092]
本研究は,障害者の手の動きを支援する視覚機能付きリハビリテーション・ハンド・エキソスケルトンを提案する。
設計目標は、トレーニングを必要とせずにシンプルなインターフェイスを利用できるツールを作ることだった。
論文 参考訳(メタデータ) (2024-08-09T04:47:37Z) - Using Explainable AI for EEG-based Reduced Montage Neonatal Seizure Detection [2.206534289238751]
新生児発作検出のゴールドスタンダードは、現在連続したビデオEEGモニタリングに依存している。
脳波モンタージュを低減した新生児発作検出プロセスを自動化するための新しい説明可能な深層学習モデルを提案する。
提案したモデルは、それぞれ曲線下面積(AUC)とリコールにおける8.31%と42.86%の絶対的な改善を達成している。
論文 参考訳(メタデータ) (2024-06-04T10:53:56Z) - EyeLS: Shadow-Guided Instrument Landing System for Intraocular Target
Approaching in Robotic Eye Surgery [51.05595735405451]
ロボット眼科手術(Robotic Ophthalmic surgery)は、網膜下注入における網膜侵入や網膜剥離における浮動組織の除去など、高精度な介入を促進する新しい技術である。
現在の画像に基づく手法では、針先端の軌跡を網膜と浮動標的の両方に向けて効果的に推定することはできない。
本研究では,ターゲットの影位置と楽器先端を用いて相対的な深度位置を推定する。
手術シミュレータでは, 平均深度0.0127mm, 平均深度0.3473mm, 平均深度0.0127mm, 平均深度0.3473mmを目標とした。
論文 参考訳(メタデータ) (2023-11-15T09:11:37Z) - Next-generation Surgical Navigation: Marker-less Multi-view 6DoF Pose Estimation of Surgical Instruments [64.59698930334012]
静止カメラとヘッドマウントカメラを組み合わせたマルチカメラ・キャプチャー・セットアップを提案する。
第2に,手術用ウェットラボと実際の手術用劇場で撮影された元脊椎手術のマルチビューRGB-Dビデオデータセットを公表した。
第3に,手術器具の6DoFポーズ推定の課題に対して,最先端のシングルビューとマルチビューの3つの手法を評価した。
論文 参考訳(メタデータ) (2023-05-05T13:42:19Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Design of an Affordable Prosthetic Arm Equipped with Deep Learning
Vision-Based Manipulation [0.0]
この論文は、手頃な価格で簡単にアクセス可能な新しい義肢の設計プロセスの概要を概説する。
この3dプリント義手は、深度カメラとクローズドループのオフポリシー深層学習アルゴリズムを備えており、対象物に対する形状把握を支援する。
未確認のオブジェクトに対して78%の成功率を実現し、操作タスクのために複数のオブジェクトをまたいだ一般化を実現しました。
論文 参考訳(メタデータ) (2021-03-03T00:35:06Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Towards Creating a Deployable Grasp Type Probability Estimator for a
Prosthetic Hand [11.008123712007402]
InceptionV3は0.95角類似度で最高精度を達成し、1.4 MobileNetV2は0.93で動作量は20%である。
我々の研究は、機械学習とコンピュータビジョンによるEMGインテント推論を物理的状態の確率で拡張することを可能にする。
論文 参考訳(メタデータ) (2021-01-13T21:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。