論文の概要: Artificial Intelligence Enables Real-Time and Intuitive Control of
Prostheses via Nerve Interface
- arxiv url: http://arxiv.org/abs/2203.08648v1
- Date: Wed, 16 Mar 2022 14:33:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 14:13:31.191214
- Title: Artificial Intelligence Enables Real-Time and Intuitive Control of
Prostheses via Nerve Interface
- Title(参考訳): 神経インターフェイスによる人工装具のリアルタイム・直感的制御を可能にする人工知能
- Authors: Diu Khue Luu, Anh Tuan Nguyen, Ming Jiang, Markus W. Drealan, Jian Xu,
Tong Wu, Wing-kin Tam, Wenfeng Zhao, Brian Z. H. Lim, Cynthia K. Overstreet,
Qi Zhao, Jonathan Cheng, Edward W. Keefer, Zhi Yang
- Abstract要約: 本物の手のように動き、感じる次世代の義手は、人間の心と機械の間の堅牢な神経の相互接続を必要とします。
本稿では,人工知能(AI)エージェントを用いて末梢神経インターフェースを介して切断者の運動意図を翻訳することにより,その原理を実証する神経補綴システムを提案する。
- 参考スコア(独自算出の注目度): 25.870454492249863
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Objective: The next generation prosthetic hand that moves and feels like a
real hand requires a robust neural interconnection between the human minds and
machines. Methods: Here we present a neuroprosthetic system to demonstrate that
principle by employing an artificial intelligence (AI) agent to translate the
amputee's movement intent through a peripheral nerve interface. The AI agent is
designed based on the recurrent neural network (RNN) and could simultaneously
decode six degree-of-freedom (DOF) from multichannel nerve data in real-time.
The decoder's performance is characterized in motor decoding experiments with
three human amputees. Results: First, we show the AI agent enables amputees to
intuitively control a prosthetic hand with individual finger and wrist
movements up to 97-98% accuracy. Second, we demonstrate the AI agent's
real-time performance by measuring the reaction time and information throughput
in a hand gesture matching task. Third, we investigate the AI agent's long-term
uses and show the decoder's robust predictive performance over a 16-month
implant duration. Conclusion & significance: Our study demonstrates the
potential of AI-enabled nerve technology, underling the next generation of
dexterous and intuitive prosthetic hands.
- Abstract(参考訳): 目的: 本物の手のように動き、感じられる次世代の義手は、人間の心と機械の間に堅牢な神経相互接続を必要とする。
方法: 末梢神経インターフェースを介して切断者の運動意図を翻訳するために人工知能(AI)エージェントを用いた神経補綴システムを提案する。
このAIエージェントは、リカレントニューラルネットワーク(RNN)に基づいて設計されており、同時に6自由度(DOF)をマルチチャネル神経データからリアルタイムに復号することができる。
デコーダの性能は、3人の人間のアンプによるモータデコード実験で特徴付けられる。
結果: まず, アンプが指と手首の動きを最大97~98%の精度で, 直感的に義手を制御することができることを示す。
第2に,ハンドジェスチャーマッチングタスクにおける反応時間と情報スループットを測定し,AIエージェントのリアルタイム性能を示す。
第3に,aiエージェントの長期使用状況を調査し,デコーダの16ヶ月の移植期間におけるロバストな予測性能を示す。
結論と意義:我々の研究は、AI対応神経技術の可能性を実証し、次世代の器用で直感的な義手を実現する。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Spatiotemporal modeling of grip forces captures proficiency in manual
robot control [5.504040521972806]
本稿では,ロボットの手動制御における個々のグリップ力の変動を予測するために,人工知能を利用したこれまでの研究に基づいて構築した。
統計的分析は、初心者と熟練した専門家の数千のグリップフォースにおいて、フォアスキルの時間的変動をもたらす。
論文 参考訳(メタデータ) (2023-03-03T15:08:00Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - A Rubric for Human-like Agents and NeuroAI [2.749726993052939]
コントリビュートされた研究は、振る舞いの模倣から機械学習メソッドのテストまで幅広い。
これら3つの目標のうちの1つが自動的に他の目標の進捗に変換されることは想定できない。
これは、弱く強いニューロAIとヒトのようなエージェントの例を用いて明らかにされている。
論文 参考訳(メタデータ) (2022-12-08T16:59:40Z) - A Portable, Self-Contained Neuroprosthetic Hand with Deep Learning-Based
Finger Control [18.09497225404653]
深層学習に基づく制御を組み込んだ神経補綴ハンドの実装について述べる。
ニューラルデコーダは、リカレントニューラルネットワーク(RNN)アーキテクチャに基づいて設計され、NVIDIA Jetson Nano上にデプロイされる。
これにより、個々の指の動きをリアルタイムに制御するポータブルで自己完結型ユニットとして、神経義手の実装が可能になる。
論文 参考訳(メタデータ) (2021-03-24T19:11:58Z) - A toolbox for neuromorphic sensing in robotics [4.157415305926584]
ロボット上で利用可能なあらゆる種類のセンサからの入力信号をエンコードし、デコードするためのROS(Robot Operating System)ツールボックスを導入する。
このイニシアチブは、ニューロモルフィックAIのロボット統合を刺激し促進することを目的としている。
論文 参考訳(メタデータ) (2021-03-03T23:22:05Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - BWCNN: Blink to Word, a Real-Time Convolutional Neural Network Approach [5.111743097836832]
我々は、外界との通信にアイリンクを使用する人工知能(AI)システムを提案する。
このシステムは、畳み込みニューラルネットワーク(CNN)を使用して、一連のオープンおよびクローズドステートとして定義される点滅パターンを見つける。
論文 参考訳(メタデータ) (2020-06-01T20:07:44Z) - A Developmental Neuro-Robotics Approach for Boosting the Recognition of
Handwritten Digits [91.3755431537592]
近年のエビデンスでは、子どもの体現戦略をシミュレーションすることで、マシンインテリジェンスも改善できることが示されている。
本稿では,発達神経ロボティクスの文脈における畳み込みニューラルネットワークモデルへの具体的戦略の適用について検討する。
論文 参考訳(メタデータ) (2020-03-23T14:55:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。