論文の概要: Spatiotemporal modeling of grip forces captures proficiency in manual
robot control
- arxiv url: http://arxiv.org/abs/2303.01995v1
- Date: Fri, 3 Mar 2023 15:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:28:48.046346
- Title: Spatiotemporal modeling of grip forces captures proficiency in manual
robot control
- Title(参考訳): 手動ロボット制御における把持力の時空間モデリング
- Authors: Rongrong Liu, John M. Wandeto, Florent Nageotte, Philippe Zanne,
Michel de Mathelin, Birgitta Dresp-Langley
- Abstract要約: 本稿では,ロボットの手動制御における個々のグリップ力の変動を予測するために,人工知能を利用したこれまでの研究に基づいて構築した。
統計的分析は、初心者と熟練した専門家の数千のグリップフォースにおいて、フォアスキルの時間的変動をもたらす。
- 参考スコア(独自算出の注目度): 5.504040521972806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper builds on our previous work by exploiting Artificial Intelligence
to predict individual grip force variability in manual robot control. Grip
forces were recorded from various loci in the dominant and non dominant hands
of individuals by means of wearable wireless sensor technology. Statistical
analyses bring to the fore skill specific temporal variations in thousands of
grip forces of a complete novice and a highly proficient expert in manual robot
control. A brain inspired neural network model that uses the output metric of a
Self Organizing Map with unsupervised winner take all learning was run on the
sensor output from both hands of each user. The neural network metric expresses
the difference between an input representation and its model representation at
any given moment in time t and reliably captures the differences between novice
and expert performance in terms of grip force variability.Functionally
motivated spatiotemporal analysis of individual average grip forces, computed
for time windows of constant size in the output of a restricted amount of
task-relevant sensors in the dominant (preferred) hand, reveal finger-specific
synergies reflecting robotic task skill. The analyses lead the way towards grip
force monitoring in real time to permit tracking task skill evolution in
trainees, or identify individual proficiency levels in human robot interaction
in environmental contexts of high sensory uncertainty. Parsimonious Artificial
Intelligence (AI) assistance will contribute to the outcome of new types of
surgery, in particular single-port approaches such as NOTES (Natural Orifice
Transluminal Endoscopic Surgery) and SILS (Single Incision Laparoscopic
Surgery).
- Abstract(参考訳): 本稿では,手作業ロボット制御における個々の把持力の変動を人工知能を用いて予測する。
把持力は, ウェアラブル無線センサ技術を用いて, 個人の支配的手と非支配的手において様々な軌跡から記録された。
統計的分析は、完全初心者の数千のグリップ力と、手動ロボット制御の非常に熟練した専門家の、フォアスキル特有の時間的変化をもたらす。
脳にインスパイアされたニューラルネットワークモデルは、教師なしの勝者による自己組織化マップの出力メトリックを使用して、各ユーザの両手から出力されたセンサー上ですべての学習を実行した。
The neural network metric expresses the difference between an input representation and its model representation at any given moment in time t and reliably captures the differences between novice and expert performance in terms of grip force variability.Functionally motivated spatiotemporal analysis of individual average grip forces, computed for time windows of constant size in the output of a restricted amount of task-relevant sensors in the dominant (preferred) hand, reveal finger-specific synergies reflecting robotic task skill.
これらの分析は、リアルタイムで把持力モニタリングへ向けて、訓練生のタスクスキルの進化を追跡したり、高感覚不確実性環境における人間のロボットの相互作用における個々の習熟度を識別することにつながる。
特にNOTES (Natural Orifice Transluminal Endoscopic Surgery) やSILS (Single Incision Laparoscopic Surgery) のような単一ポートのアプローチでは、パシモニアス・人工知能(AI)の支援が新しいタイプの手術の結果に寄与する。
関連論文リスト
- Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - Exploring of Discrete and Continuous Input Control for AI-enhanced
Assistive Robotic Arms [5.371337604556312]
協調ロボットは、オブジェクトの把握や操作といったタスクのために、複数の自由度(DoF)を管理する必要がある。
本研究は,3種類の入力デバイスを,支援ロボットのための確立されたXRフレームワークに統合することによって探索する。
論文 参考訳(メタデータ) (2024-01-13T16:57:40Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Artificial Intelligence Enables Real-Time and Intuitive Control of
Prostheses via Nerve Interface [25.870454492249863]
本物の手のように動き、感じる次世代の義手は、人間の心と機械の間の堅牢な神経の相互接続を必要とします。
本稿では,人工知能(AI)エージェントを用いて末梢神経インターフェースを介して切断者の運動意図を翻訳することにより,その原理を実証する神経補綴システムを提案する。
論文 参考訳(メタデータ) (2022-03-16T14:33:38Z) - Vision-Based Manipulators Need to Also See from Their Hands [58.398637422321976]
本研究では,視覚的視点の選択が,生のセンサ観測から身体操作の文脈における学習と一般化にどう影響するかを検討する。
手中心(目の)視点は可観測性を低下させるが、トレーニング効率とアウト・オブ・ディストリビューションの一般化を一貫して改善する。
論文 参考訳(メタデータ) (2022-03-15T18:46:18Z) - Surgical task expertise detected by a self-organizing neural network map [0.0]
ロボットによる外科的シミュレータータスクを実行する真の専門家と初心者のグリップ力の変動は,タスクの専門知識の関数として統計的に有意な差異を明らかにした。
本稿では,自己組織型ニューラルネットワークマップの出力測定値から,局所グリップ力のスキル特異的差が予測可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T10:48:10Z) - HANDS: A Multimodal Dataset for Modeling Towards Human Grasp Intent
Inference in Prosthetic Hands [3.7886097009023376]
未来の高度な義手は、ロボットハンドと人間のユーザーとの共有制御の改善の恩恵を受けると予想されている。
マルチモーダルセンサーデータには、視覚を含む様々な環境センサーと、人間の生理と行動センサーが含まれる。
環境状態と人間の意図推定のための融合手法は、これらの証拠の源を組み合わせることで、義手の動き計画と制御を支援する。
論文 参考訳(メタデータ) (2021-03-08T15:51:03Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Human Haptic Gesture Interpretation for Robotic Systems [3.888848425698769]
物理的人間とロボットの相互作用(pHRI)は、人間と人間の相互作用よりも効率的でコミュニケーションが難しい。
主な理由は、ロボットシステムにおける情報的な触覚の欠如である。
本研究は,文献で特定されるジェスチャーの特徴の大部分をカバーする4つのタッチジェスチャークラスを提案する。
論文 参考訳(メタデータ) (2020-12-03T14:33:57Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。