論文の概要: Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems
- arxiv url: http://arxiv.org/abs/2303.10336v1
- Date: Sat, 18 Mar 2023 04:57:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 20:05:43.207002
- Title: Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems
- Title(参考訳): 極小ニットセンサの複雑なジェスチャー認識:実世界対話システムに向けて
- Authors: Denisa Qori McDonald, Richard Valett, Lev Saunders, Genevieve Dion,
Ali Shokoufandeh
- Abstract要約: デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
本研究は,対話型ジェスチャー認識システムの基礎を構築することにより,そのようなセンサの能力を向上させる。
- 参考スコア(独自算出の注目度): 0.13048920509133805
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developments in touch-sensitive textiles have enabled many novel interactive
techniques and applications. Our digitally-knitted capacitive active sensors
can be manufactured at scale with little human intervention. Their sensitive
areas are created from a single conductive yarn, and they require only few
connections to external hardware. This technique increases their robustness and
usability, while shifting the complexity of enabling interactivity from the
hardware to computational models. This work advances the capabilities of such
sensors by creating the foundation for an interactive gesture recognition
system. It uses a novel sensor design, and a neural network-based recognition
model to classify 12 relatively complex, single touch point gesture classes
with 89.8% accuracy, unfolding many possibilities for future applications. We
also demonstrate the system's applicability and robustness to real-world
conditions through its performance while being worn and the impact of washing
and drying on the sensor's resistance.
- Abstract(参考訳): タッチセンシティブな織物の開発は、多くの新しいインタラクティブな技術と応用を可能にした。
デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
これらの感度領域は単一の導電性糸から作られ、外部ハードウェアへの接続はわずかである。
この技術は、ハードウェアから計算モデルへの相互作用を可能にする複雑さをシフトさせながら、堅牢性とユーザビリティを高める。
本研究は,対話型ジェスチャ認識システムの基礎を構築することにより,センサの能力を向上させる。
新しいセンサー設計とニューラルネットワークに基づく認識モデルを使用して、89.8%の精度で12の比較的複雑なシングルタッチポイントジェスチャークラスを分類し、将来の応用の可能性を広げている。
また, 本システムの適用性と実環境への堅牢性について, 装着時の性能, 洗浄乾燥がセンサの抵抗に及ぼす影響を実証した。
関連論文リスト
- Digitizing Touch with an Artificial Multimodal Fingertip [51.7029315337739]
人間とロボットはどちらも、周囲の環境を知覚し、相互作用するためにタッチを使うことの恩恵を受ける。
ここでは、タッチのデジタル化を改善するための概念的および技術革新について述べる。
これらの進歩は、高度なセンシング機能を備えた人工指型センサーに具現化されている。
論文 参考訳(メタデータ) (2024-11-04T18:38:50Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Optical skin: Sensor-integration-free multimodal flexible sensing [0.0]
本稿では,複数のセンサを統合する必要のない,シンプルで高感度でマルチモーダルなセンシング手法を提案する。
提案手法は,様々な刺激の情報を空間パターンとして符号化する光学干渉法に基づく。
ヒューマンマシンインタフェースのための触覚ソフトデバイスを提案する。
論文 参考訳(メタデータ) (2022-02-03T14:58:27Z) - Real-time Interface Control with Motion Gesture Recognition based on
Non-contact Capacitive Sensing [2.60215363752507]
非接触手動ジェスチャー認識に基づくリアルタイムインタフェース制御フレームワークを提案する。
10種類の手の動きのジェスチャーを98.79%の精度で分類する。
本研究は,人間と機械とのフレキシブルなインタラクションを自然ユーザインタフェースと類似した,直感的なインタフェース技術が実現可能であることを示唆する。
論文 参考訳(メタデータ) (2022-01-05T18:39:51Z) - ReSkin: versatile, replaceable, lasting tactile skins [28.348982687106883]
ReSkinは、機械学習と磁気センサーを利用して、低コストで多様なコンパクトなソリューションを長期使用に提供する触覚ソフトセンサーだ。
我々の自己教師付き学習アルゴリズムは、小型で安価なデータ収集手順により、より高性能な性能向上を可能にする。
論文 参考訳(メタデータ) (2021-10-29T20:21:37Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - Under Pressure: Learning to Detect Slip with Barometric Tactile Sensors [7.35805050004643]
本稿では,バロメトリック触覚センサを用いたスリップ検出法を提案する。
我々は91%以上のスリップ検出精度を達成することができる。
バロメトリック触覚センシング技術とデータ駆動学習の組み合わせは、多くの複雑な操作タスクに適しています。
論文 参考訳(メタデータ) (2021-03-24T19:29:03Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。