論文の概要: Towards Creating a Deployable Grasp Type Probability Estimator for a
Prosthetic Hand
- arxiv url: http://arxiv.org/abs/2101.05357v1
- Date: Wed, 13 Jan 2021 21:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 07:51:24.625337
- Title: Towards Creating a Deployable Grasp Type Probability Estimator for a
Prosthetic Hand
- Title(参考訳): 義手のための展開可能な把持型確率推定器の作成に向けて
- Authors: Mehrshad Zandigohar, Mo Han, Deniz Erdogmus, and Gunar Schirner
- Abstract要約: InceptionV3は0.95角類似度で最高精度を達成し、1.4 MobileNetV2は0.93で動作量は20%である。
我々の研究は、機械学習とコンピュータビジョンによるEMGインテント推論を物理的状態の確率で拡張することを可能にする。
- 参考スコア(独自算出の注目度): 11.008123712007402
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For lower arm amputees, prosthetic hands promise to restore most of physical
interaction capabilities. This requires to accurately predict hand gestures
capable of grabbing varying objects and execute them timely as intended by the
user. Current approaches often rely on physiological signal inputs such as
Electromyography (EMG) signal from residual limb muscles to infer the intended
motion. However, limited signal quality, user diversity and high variability
adversely affect the system robustness. Instead of solely relying on EMG
signals, our work enables augmenting EMG intent inference with physical state
probability through machine learning and computer vision method. To this end,
we: (1) study state-of-the-art deep neural network architectures to select a
performant source of knowledge transfer for the prosthetic hand, (2) use a
dataset containing object images and probability distribution of grasp types as
a new form of labeling where instead of using absolute values of zero and one
as the conventional classification labels, our labels are a set of
probabilities whose sum is 1. The proposed method generates probabilistic
predictions which could be fused with EMG prediction of probabilities over
grasps by using the visual information from the palm camera of a prosthetic
hand. Our results demonstrate that InceptionV3 achieves highest accuracy with
0.95 angular similarity followed by 1.4 MobileNetV2 with 0.93 at ~20% the
amount of operations.
- Abstract(参考訳): 下腕のアンプの場合、義手は身体的な相互作用の能力のほとんどを回復する。
これは、さまざまなオブジェクトをつかみ、ユーザが意図したようにタイムリーに実行することのできる手振りを正確に予測する必要がある。
現在のアプローチはしばしば、意図した動きを推測するために、残肢筋からの電気筋電図(EMG)信号のような生理学的信号入力に依存する。
しかし、信号品質、ユーザの多様性、高い変動性はシステムのロバスト性に悪影響を及ぼす。
本研究は,EMG信号のみに頼るのではなく,機械学習とコンピュータビジョン手法により,EMG意図推論を物理的状態の確率で拡張する。
この目的のために、(1)最先端のディープニューラルネットワークアーキテクチャを研究して、義手における知識伝達の動作源を選択する(2)対象画像を含むデータセットと、従来の分類ラベルとしてゼロと1の絶対値を使用するのではなく、その合計が1となる確率の集合であるようなラベル付けの新たな形式として、把握型の確率分布を用いる。
提案手法は,手のひらカメラの視覚情報を用いて,握り以上の確率のEMG予測と融合可能な確率予測を生成する。
その結果,inceptionv3 は 0.95 角類似度で最高精度を達成し,1.4 mobilenetv2 は 0.93 で 20% の演算量を達成できた。
関連論文リスト
- Deep Learning for Motion Classification in Ankle Exoskeletons Using Surface EMG and IMU Signals [0.8388591755871735]
足関節外骨格は、移動性を高め、転倒リスクを減らす可能性に対してかなりの関心を集めている。
本稿では、3つの慣性計測ユニット(IMU)と8つの表面筋電図センサ(sEMG)を統合する新しい動き予測フレームワークを提案する。
その結果、畳み込みニューラルネットワーク(CNN)は5つの動作タスクのデータセット上でLSTM(Long Short-Term Memory)ネットワークをわずかに上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-25T10:51:40Z) - emg2qwerty: A Large Dataset with Baselines for Touch Typing using Surface Electromyography [47.160223334501126]
emg2qwertyは、QWERTYキーボードでタッチ入力しながら手首に記録された非侵襲的筋電図信号の大規模なデータセットである。
1,135のセッションが108ユーザと346時間の録画にまたがっており、これまでで最大の公開データセットである。
sEMG信号のみを用いたキープレッシャの予測において,高いベースライン性能を示す。
論文 参考訳(メタデータ) (2024-10-26T05:18:48Z) - Physical formula enhanced multi-task learning for pharmacokinetics prediction [54.13787789006417]
AIによる薬物発見の大きな課題は、高品質なデータの不足である。
薬物動態の4つの重要なパラメータを同時に予測するPEMAL法を開発した。
実験の結果,PEMALは一般的なグラフニューラルネットワークに比べてデータ需要を著しく低減することがわかった。
論文 参考訳(メタデータ) (2024-04-16T07:42:55Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Neurosymbolic hybrid approach to driver collision warning [64.02492460600905]
自律運転システムには2つの主要なアルゴリズムアプローチがある。
ディープラーニングだけでは、多くの分野で最先端の結果が得られています。
しかし、ディープラーニングモデルが機能しない場合、デバッグが非常に難しい場合もあります。
論文 参考訳(メタデータ) (2022-03-28T20:29:50Z) - StRegA: Unsupervised Anomaly Detection in Brain MRIs using a Compact
Context-encoding Variational Autoencoder [48.2010192865749]
教師なし異常検出(UAD)は、健康な被験者の異常なデータセットからデータ分布を学習し、分布サンプルの抽出に応用することができる。
本研究では,コンテクストエンコーディング(context-encoding)VAE(ceVAE)モデルのコンパクトバージョンと,前処理と後処理のステップを組み合わせて,UADパイプライン(StRegA)を作成することを提案する。
提案したパイプラインは、BraTSデータセットのT2w画像と0.859$pm$0.112の腫瘍を検出しながら、Diceスコアが0.642$pm$0.101に達した。
論文 参考訳(メタデータ) (2022-01-31T14:27:35Z) - An End-to-End Deep Learning Approach for Epileptic Seizure Prediction [4.094649684498489]
畳み込みニューラルネットワーク(CNN)を用いたエンドツーエンドディープラーニングソリューションを提案する。
総合感度、誤予測率、受信機動作特性曲線下の面積は、それぞれ2つのデータセットで93.5%、0.063/h、0.981、98.8%、0.074/h、0.988に達する。
論文 参考訳(メタデータ) (2021-08-17T05:49:43Z) - Continuous Decoding of Daily-Life Hand Movements from Forearm Muscle
Activity for Enhanced Myoelectric Control of Hand Prostheses [78.120734120667]
本研究では,前腕のEMG活性をハンドキネマティクスに連続的にマップする,長期記憶(LSTM)ネットワークに基づく新しい手法を提案する。
私たちの研究は、この困難なデータセットを使用するハンドキネマティクスの予測に関する最初の報告です。
提案手法は, 人工手指の複数のDOFの独立的, 比例的アクティベーションのための制御信号の生成に適していることが示唆された。
論文 参考訳(メタデータ) (2021-04-29T00:11:32Z) - Multimodal Fusion of EMG and Vision for Human Grasp Intent Inference in
Prosthetic Hand Control [11.400385533782204]
前腕の視線映像,視線,筋電図を用いた意図推定のためのベイズ的エビデンス融合フレームワークを提案する。
我々は、手が物体に近づくと、時間関数として個人と融合性能を解析し、それを把握する。
論文 参考訳(メタデータ) (2021-04-08T17:01:19Z) - From Hand-Perspective Visual Information to Grasp Type Probabilities:
Deep Learning via Ranking Labels [6.772076545800592]
Plackett-Luceモデルに基づいた新しい確率分類器を構築し、把握上の確率分布を予測する。
提案モデルは,最もポピュラーで生産性の高い畳み込みニューラルネットワークフレームワークに適用可能であることを示す。
論文 参考訳(メタデータ) (2021-03-08T16:12:38Z) - Effect of Analysis Window and Feature Selection on Classification of
Hand Movements Using EMG Signal [0.20999222360659603]
近年,パターン認識(PR)に基づく筋電制御の研究は,機械学習分類器の助けを借りて有望な結果を示した。
複数のクラスの動きと直感的な制御を提供することで、日常的な生活運動を行うために切断対象に電力を供給することができる。
我々は,手の動きの分類精度を向上させるために,効率的なデータ前処理と最適な特徴選択が有効であることを示す。
論文 参考訳(メタデータ) (2020-02-02T19:03:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。