論文の概要: Design of an Affordable Prosthetic Arm Equipped with Deep Learning
Vision-Based Manipulation
- arxiv url: http://arxiv.org/abs/2103.02099v1
- Date: Wed, 3 Mar 2021 00:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-07 01:56:23.499073
- Title: Design of an Affordable Prosthetic Arm Equipped with Deep Learning
Vision-Based Manipulation
- Title(参考訳): Deep Learning Vision-Based Manipulation を用いた拡張可能な義肢の設計
- Authors: Alishba Imran, William Escobar, Freidoon Barez
- Abstract要約: この論文は、手頃な価格で簡単にアクセス可能な新しい義肢の設計プロセスの概要を概説する。
この3dプリント義手は、深度カメラとクローズドループのオフポリシー深層学習アルゴリズムを備えており、対象物に対する形状把握を支援する。
未確認のオブジェクトに対して78%の成功率を実現し、操作タスクのために複数のオブジェクトをまたいだ一般化を実現しました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many amputees throughout the world are left with limited options to
personally own a prosthetic arm due to the expensive cost, mechanical system
complexity, and lack of availability. The three main control methods of
prosthetic hands are: (1) body-powered control, (2) extrinsic mechanical
control, and (3) myoelectric control. These methods can perform well under a
controlled situation but will often break down in clinical and everyday use due
to poor robustness, weak adaptability, long-term training, and heavy mental
burden during use. This paper lays the complete outline of the design process
of an affordable and easily accessible novel prosthetic arm that reduces the
cost of prosthetics from $10,000 to $700 on average. The 3D printed prosthetic
arm is equipped with a depth camera and closed-loop off-policy deep learning
algorithm to help form grasps to the object in view. Current work in
reinforcement learning masters only individual skills and is heavily focused on
parallel jaw grippers for in-hand manipulation. In order to create
generalization, which better performs real-world manipulation, the focus is
specifically on using the general framework of Markov Decision Process (MDP)
through scalable learning with off-policy algorithms such as deep deterministic
policy gradient (DDPG) and to study this question in the context of grasping a
prosthetic arm. We were able to achieve a 78% grasp success rate on previously
unseen objects and generalize across multiple objects for manipulation tasks.
This work will make prosthetics cheaper, easier to use and accessible globally
for amputees. Future work includes applying similar approaches to other medical
assistive devices where a human is interacting with a machine to complete a
task.
- Abstract(参考訳): 世界中の多くのアンシュートには、高価なコスト、機械システムの複雑さ、可用性の欠如により、個人的に義肢を所有する選択肢が限られている。
義手の主な制御方法は、(1)体力制御、(2)外力機械制御、(3)筋電制御の3つです。
これらの方法は、コントロールされた状況下では良好に機能するが、堅牢性、弱い適応性、長期トレーニング、そして使用中の重度の精神的な負担により、臨床および日常的な使用においてしばしば崩壊する。
この論文は、手頃で簡単に使える新しい義肢の設計過程の完全な概要を述べており、義肢のコストを平均1万ドルから700ドルに削減している。
この3dプリント義手は、深度カメラとクローズドループのオフポリシー深層学習アルゴリズムを備えており、対象物に対する形状把握を支援する。
現在の強化学習マスターの作業は個々のスキルのみであり、手で操作するパラレル顎グリッパーに重点を置いている。
実世界の操作をより良く行う一般化を実現するため、特に、Deep Deterministic Policy gradient (DDPG)のような非政治アルゴリズムによるスケーラブルな学習を通じて、マルコフ決定プロセス(MDP)の一般的なフレームワークの使用に焦点を当て、義肢の把握という文脈でこの問題を研究する。
未確認のオブジェクトに対して78%の成功率を実現し、操作タスクのために複数のオブジェクトをまたいだ一般化を実現しました。
この作業により、人工装具は安価で使いやすく、アンプでグローバルにアクセスできるようになります。
今後の作業には、人間が機械と対話してタスクを完了している他の医療補助デバイスにも同様のアプローチを適用することが含まれる。
関連論文リスト
- AI-Powered Camera and Sensors for the Rehabilitation Hand Exoskeleton [0.393259574660092]
本研究は,障害者の手の動きを支援する視覚機能付きリハビリテーション・ハンド・エキソスケルトンを提案する。
設計目標は、トレーニングを必要とせずにシンプルなインターフェイスを利用できるツールを作ることだった。
論文 参考訳(メタデータ) (2024-08-09T04:47:37Z) - MindArm: Mechanized Intelligent Non-Invasive Neuro-Driven Prosthetic Arm System [5.528262076322921]
MindArmはディープニューラルネットワーク(DNN)を使用して、低コストの表面脳波(EEG)電極で捉えた脳信号を人工腕の動きに変換する。
価格は約500~550ドルで、EEGヘッドセットは400ドル、モーターは100~150ドル、3Dプリンティング、組み立てなどだ。
論文 参考訳(メタデータ) (2024-03-29T06:09:24Z) - Twisting Lids Off with Two Hands [82.21668778600414]
シミュレーションで訓練された政策を実世界へ効果的かつ効率的に移行する方法を示す。
具体的には,ボトル状物体の蓋を両手でねじる問題について考察する。
これは、バイマガル・マルチフィンガーハンドでそのような機能を実現する最初のsim-to-real RLシステムである。
論文 参考訳(メタデータ) (2024-03-04T18:59:30Z) - Learning to Design and Use Tools for Robotic Manipulation [21.18538869008642]
深層学習による形態と制御を共同最適化する最近の技術は, 移動エージェントの設計に有効である。
単一設計ではなく,設計方針の学習を提案する。
このフレームワークは,マルチゴール設定やマルチバリアント設定において,従来の手法よりもサンプリング効率が高いことを示す。
論文 参考訳(メタデータ) (2023-11-01T18:00:10Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - DexArt: Benchmarking Generalizable Dexterous Manipulation with
Articulated Objects [8.195608430584073]
物理シミュレーターにおけるArticulated ObjectによるDexterous操作を含むDexArtという新しいベンチマークを提案する。
本研究の主目的は,未確認対象に対する学習方針の一般化性を評価することである。
一般化を実現するために3次元表現学習を用いた強化学習を用いる。
論文 参考訳(メタデータ) (2023-05-09T18:30:58Z) - Learning Fine-Grained Bimanual Manipulation with Low-Cost Hardware [132.39281056124312]
ケーブル接続のスレッディングやバッテリーのスロットングといった細かい操作は、ロボットにとって非常に難しい。
本稿では,実演からエンド・ツー・エンドの模倣学習を行う低コストシステムを提案する。
本研究では, 動作系列の生成モデルを学習する, 単純だが斬新なアルゴリズムであるAction Chunking with Transformersを開発した。
論文 参考訳(メタデータ) (2023-04-23T19:10:53Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。