論文の概要: Human Haptic Gesture Interpretation for Robotic Systems
- arxiv url: http://arxiv.org/abs/2012.01959v3
- Date: Wed, 10 Mar 2021 02:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:05:06.099959
- Title: Human Haptic Gesture Interpretation for Robotic Systems
- Title(参考訳): ロボットシステムのための人間の触覚ジェスチャー解釈
- Authors: Elizabeth Bibit Bianchini, Prateek Verma and Kenneth Salisbury
- Abstract要約: 物理的人間とロボットの相互作用(pHRI)は、人間と人間の相互作用よりも効率的でコミュニケーションが難しい。
主な理由は、ロボットシステムにおける情報的な触覚の欠如である。
本研究は,文献で特定されるジェスチャーの特徴の大部分をカバーする4つのタッチジェスチャークラスを提案する。
- 参考スコア(独自算出の注目度): 3.888848425698769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Physical human-robot interactions (pHRI) are less efficient and communicative
than human-human interactions, and a key reason is a lack of informative sense
of touch in robotic systems. Interpreting human touch gestures is a nuanced,
challenging task with extreme gaps between human and robot capability. Among
prior works that demonstrate human touch recognition capability, differences in
sensors, gesture classes, feature sets, and classification algorithms yield a
conglomerate of non-transferable results and a glaring lack of a standard. To
address this gap, this work presents 1) four proposed touch gesture classes
that cover the majority of the gesture characteristics identified in the
literature, 2) the collection of an extensive force dataset on a common pHRI
robotic arm with only its internal wrist force-torque sensor, and 3) an
exhaustive performance comparison of combinations of feature sets and
classification algorithms on this dataset. We demonstrate high classification
accuracies among our proposed gesture definitions on a test set, emphasizing
that neural network classifiers on the raw data outperform other combinations
of feature sets and algorithms.
- Abstract(参考訳): 物理的な人間とロボットの相互作用(phri)は、人間と人間の相互作用よりも効率的で通信性が低い。
人間のタッチジェスチャーを解釈するのは、人間とロボットの能力の間に極端なギャップがある、面倒で難しい作業だ。
人間のタッチ認識能力、センサーの違い、ジェスチャクラス、特徴セット、そして分類アルゴリズムを実証する以前の作品の中には、転送不能な結果のコングロマリットと標準の欠如がある。
このギャップに対処するため,本研究は,1)文献で特定されるジェスチャーの特徴の大部分を網羅する4つのタッチジェスチャークラス,2)内部の手首トルクセンサのみを備えた共通のpHRIロボットアーム上の広範囲な力データセットの収集,3)特徴セットと分類アルゴリズムの組み合わせの徹底的な性能比較を行う。
提案したジェスチャ定義のうち高い分類精度をテストセットで示し、ニューラルネットワークの分類器が特徴セットとアルゴリズムの他の組み合わせよりも優れていることを強調した。
関連論文リスト
- The Role of Functional Muscle Networks in Improving Hand Gesture Perception for Human-Machine Interfaces [2.367412330421982]
表面筋電図(sEMG)はその豊富な情報コンテキストとアクセシビリティのために研究されている。
本稿では,個々の筋活性化ではなく,筋同期の復号化を提案する。
85.1%の精度を実現し、既存の手法に比べて性能が向上した。
論文 参考訳(メタデータ) (2024-08-05T15:17:34Z) - Interactive Multi-Robot Flocking with Gesture Responsiveness and Musical Accompaniment [0.7659052547635159]
この研究は魅力的なマルチロボットタスクを示し、その主な目的は熱意と関心を喚起することである。
このタスクでは、人間と一緒に動き、ダイナミックで表現力のあるロボット群に参加することが目標である。
この目的に向けて、研究チームはロボットの動きとジェスチャーや音といった対話モードを関連づけるアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-03-30T18:16:28Z) - Inter-X: Towards Versatile Human-Human Interaction Analysis [100.254438708001]
正確な身体の動きと多様な相互作用パターンを持つデータセットであるInter-Xを提案する。
データセットは、1Kの相互作用シーケンスと8.1Mフレーム以上を含む。
また、Inter-Xには34K以上の微粒な人間のテキスト記述の多義アノテーションも備えています。
論文 参考訳(メタデータ) (2023-12-26T13:36:05Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - Online Recognition of Incomplete Gesture Data to Interface Collaborative
Robots [0.0]
本稿では,ウェアラブルセンサで捉えた静的ジェスチャー(SG)と動的ジェスチャー(DG)の大きな語彙を分類するためのHRIフレームワークを提案する。
認識されたジェスチャーは、朝食の食事を準備する共同作業でロボットを遠隔操作するために使用される。
論文 参考訳(メタデータ) (2023-04-13T18:49:08Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Cognitive architecture aided by working-memory for self-supervised
multi-modal humans recognition [54.749127627191655]
人間パートナーを認識する能力は、パーソナライズされた長期的な人間とロボットの相互作用を構築するための重要な社会的スキルです。
ディープラーニングネットワークは最先端の結果を達成し,そのような課題に対処するための適切なツールであることが実証された。
1つの解決策は、ロボットに自己スーパービジョンで直接の感覚データから学習させることである。
論文 参考訳(メタデータ) (2021-03-16T13:50:24Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - TactileSGNet: A Spiking Graph Neural Network for Event-based Tactile
Object Recognition [17.37142241982902]
フレキシブルでイベント駆動の電子スキンの新しい進歩は、すぐに人間に似たタッチ認識能力を持つロボットを養うかもしれない。
これらのユニークな特徴は、触覚学習には適さない畳み込み特徴抽出器のような、現在のディープラーニングアプローチをもたらす可能性がある。
イベントベース触覚物体認識のための新しいスパイキンググラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-01T03:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。