論文の概要: 3D Printed Brain-Controlled Robot-Arm Prosthetic via Embedded Deep
Learning from sEMG Sensors
- arxiv url: http://arxiv.org/abs/2005.01797v1
- Date: Mon, 4 May 2020 19:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 01:49:31.948601
- Title: 3D Printed Brain-Controlled Robot-Arm Prosthetic via Embedded Deep
Learning from sEMG Sensors
- Title(参考訳): sEMGセンサーを用いた埋め込み深層学習による脳制御ロボット義肢の3Dプリント
- Authors: David Lonsdale, Li Zhang and Richard Jiang
- Abstract要約: 本研究では,Google Inceptionモデルに適用した転写学習技術を用いて,表面筋電図(sEMG)分類の最終層を再構成する手法を提案する。
Thalmic Labsmyo Armbandを使ってデータを収集し、画像ごとに8つのサブプロットからなるグラフ画像を生成する。
深層学習モデルであるInception-v3では、新しいデータのリアルタイム入力で各モデルの正確な予測をトレーニングする。
脳制御ロボットアームは3Dプリンターと市販のハードウェアを使って製造された。
- 参考スコア(独自算出の注目度): 4.901124285608471
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present our work on developing robot arm prosthetic via
deep learning. Our work proposes to use transfer learning techniques applied to
the Google Inception model to retrain the final layer for surface
electromyography (sEMG) classification. Data have been collected using the
Thalmic Labs Myo Armband and used to generate graph images comprised of 8
subplots per image containing sEMG data captured from 40 data points per
sensor, corresponding to the array of 8 sEMG sensors in the armband. Data
captured were then classified into four categories (Fist, Thumbs Up, Open Hand,
Rest) via using a deep learning model, Inception-v3, with transfer learning to
train the model for accurate prediction of each on real-time input of new data.
This trained model was then downloaded to the ARM processor based embedding
system to enable the brain-controlled robot-arm prosthetic manufactured from
our 3D printer. Testing of the functionality of the method, a robotic arm was
produced using a 3D printer and off-the-shelf hardware to control it. SSH
communication protocols are employed to execute python files hosted on an
embedded Raspberry Pi with ARM processors to trigger movement on the robot arm
of the predicted gesture.
- Abstract(参考訳): 本稿では,深層学習によるロボットアーム義足の開発について述べる。
本研究では,Google Inceptionモデルに適用した転写学習技術を用いて,表面筋電図(sEMG)分類の最終層を再構成する手法を提案する。
データはThalmic Labs Myo Armbandを使って収集され、アームバンド内の8個のsEMGセンサーの配列に対応して、センサーごとに40のデータポイントから取得されたsEMGデータを含む画像毎の8個のサブプロットからなるグラフ画像を生成するために使用される。
得られたデータは、深層学習モデルであるInception-v3を使って4つのカテゴリ(Fist、Thumbs Up、Open Hand、Rest)に分類され、新しいデータのリアルタイム入力で各モデルの正確な予測をトレーニングする。
このトレーニングされたモデルはARMプロセッサベースの埋め込みシステムにダウンロードされ、脳が制御するロボットアームの義肢を3Dプリンターで作れるようにしました。
この方法の機能をテストするために、ロボットアームは3dプリンターと市販のハードウェアを使って製造され、制御された。
SSH通信プロトコルを使用して、組み込みRaspberry Pi上にホストされたピソンファイルをARMプロセッサで実行し、予測ジェスチャーのロボットアームの動きをトリガーする。
関連論文リスト
- Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - 3D-MVP: 3D Multiview Pretraining for Robotic Manipulation [53.45111493465405]
マスク付きオートエンコーダを用いた3次元マルチビュー事前学習のための新しいアプローチである3D-MVPを提案する。
我々は,多視点トランスを用いたロボットビュートランス(RVT)を利用して3Dシーンを理解し,ポーズ動作を予測する。
最小限の微調整を施した実際のロボットプラットフォームで有望な結果を示す。
論文 参考訳(メタデータ) (2024-06-26T08:17:59Z) - Exploring 3D Human Pose Estimation and Forecasting from the Robot's Perspective: The HARPER Dataset [52.22758311559]
本研究では,ユーザとスポット間のダイアドインタラクションにおける3次元ポーズ推定と予測のための新しいデータセットであるHARPERを紹介する。
キーノーベルティは、ロボットの視点、すなわちロボットのセンサーが捉えたデータに焦点を当てることである。
HARPERの基盤となるシナリオには15のアクションが含まれており、そのうち10つはロボットとユーザの間の物理的接触を含んでいる。
論文 参考訳(メタデータ) (2024-03-21T14:53:50Z) - Care3D: An Active 3D Object Detection Dataset of Real Robotic-Care
Environments [52.425280825457385]
本稿では,実環境の注釈付きデータセットを紹介する。
捕獲された環境は、ロボット医療研究の分野ですでに使われている領域を表している。
また,医療ロボット上で直接動作するSLAMアルゴリズムを評価するために,一室で真実データを提供する。
論文 参考訳(メタデータ) (2023-10-09T10:35:37Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Grasping Student: semi-supervised learning for robotic manipulation [0.7282230325785884]
本研究では,ロボットとのインタラクションを伴わずに収集する製品画像を利用した半教師付き把握システムの設計を行う。
少数のロボットトレーニングサンプルの体制では、ラベルのないデータを活用することで、10倍のデータセットサイズでパフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2023-03-08T09:03:11Z) - Automatically Prepare Training Data for YOLO Using Robotic In-Hand
Observation and Synthesis [14.034128227585143]
本稿では,ロボットが収集した限られたデータセットを拡大するために,ロボット内観察とデータ合成を組み合わせることを提案する。
収集された合成画像を組み合わせて、ディープ検出ニューラルネットワークをトレーニングする。
その結果, 観察画像と合成画像の組み合わせが手動データ作成に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-01-04T04:20:08Z) - From One Hand to Multiple Hands: Imitation Learning for Dexterous
Manipulation from Single-Camera Teleoperation [26.738893736520364]
我々は,iPadとコンピュータのみで3Dデモを効率的に収集する,新しい単一カメラ遠隔操作システムを提案する。
我々は,操作者の手の構造と形状が同じであるマニピュレータである物理シミュレータにおいて,各ユーザ向けにカスタマイズされたロボットハンドを構築する。
データを用いた模倣学習では、複数の複雑な操作タスクでベースラインを大幅に改善する。
論文 参考訳(メタデータ) (2022-04-26T17:59:51Z) - Neural Network Based Lidar Gesture Recognition for Realtime Robot
Teleoperation [0.0]
移動ロボット制御のための低複雑さライダージェスチャー認識システムを提案する。
このシステムは軽量で、限られた計算能力を持つ移動ロボット制御に適している。
ライダーの使用はシステムの堅牢性に寄与し、ほとんどの屋外環境での運用を可能にしている。
論文 参考訳(メタデータ) (2021-09-17T00:49:31Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。