論文の概要: Real-time Interface Control with Motion Gesture Recognition based on
Non-contact Capacitive Sensing
- arxiv url: http://arxiv.org/abs/2201.01755v1
- Date: Wed, 5 Jan 2022 18:39:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-06 14:35:32.884390
- Title: Real-time Interface Control with Motion Gesture Recognition based on
Non-contact Capacitive Sensing
- Title(参考訳): 非接触容量センシングに基づくモーションジェスチャ認識を用いたリアルタイムインタフェース制御
- Authors: Hunmin Lee, Jaya Krishna Mandivarapu, Nahom Ogbazghi, Yingshu Li
- Abstract要約: 非接触手動ジェスチャー認識に基づくリアルタイムインタフェース制御フレームワークを提案する。
10種類の手の動きのジェスチャーを98.79%の精度で分類する。
本研究は,人間と機械とのフレキシブルなインタラクションを自然ユーザインタフェースと類似した,直感的なインタフェース技術が実現可能であることを示唆する。
- 参考スコア(独自算出の注目度): 2.60215363752507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capacitive sensing is a prominent technology that is cost-effective and low
power consuming with fast recognition speed compared to existing sensing
systems. On account of these advantages, Capacitive sensing has been widely
studied and commercialized in the domains of touch sensing, localization,
existence detection, and contact sensing interface application such as
human-computer interaction. However, as a non-contact proximity sensing scheme
is easily affected by the disturbance of peripheral objects or surroundings, it
requires considerable sensitive data processing than contact sensing, limiting
the use of its further utilization. In this paper, we propose a real-time
interface control framework based on non-contact hand motion gesture
recognition through processing the raw signals, detecting the electric field
disturbance triggered by the hand gesture movements near the capacitive sensor
using adaptive threshold, and extracting the significant signal frame, covering
the authentic signal intervals with 98.8% detection rate and 98.4% frame
correction rate. Through the GRU model trained with the extracted signal frame,
we classify the 10 hand motion gesture types with 98.79% accuracy. The
framework transmits the classification result and maneuvers the interface of
the foreground process depending on the input. This study suggests the
feasibility of intuitive interface technology, which accommodates the flexible
interaction between human to machine similar to Natural User Interface, and
uplifts the possibility of commercialization based on measuring the electric
field disturbance through non-contact proximity sensing which is
state-of-the-art sensing technology.
- Abstract(参考訳): 容量センシング(capacitive sensing)は、既存のセンシングシステムよりも高速な認識速度で、コスト効率が高く低消費電力な技術である。
これらの利点から, タッチセンシング, 局所化, 存在検出, ヒューマン・コンピュータ・インタラクションなどの接触センシングインタフェースの分野で, 容量センシングが広く研究され, 商業化されている。
しかし、非接触近接センシング方式は周辺物体や周辺機器の乱れの影響を受けやすいため、接触センシングよりも相当な感度のデータ処理が必要となり、さらなる利用が制限される。
本稿では、原信号処理による非接触手の動き認識に基づくリアルタイムインタフェース制御フレームワークを提案し、適応しきい値を用いて、静電容量センサ近傍のハンドジェスチャー動作によって引き起こされる電界乱を検知し、有意な信号フレームを98.8%の検出率と98.4%のフレーム補正率でカバーする。
抽出した信号フレームを用いて学習したGRUモデルを用いて,手の動きのジェスチャータイプを98.79%の精度で分類する。
フレームワークは分類結果を送信し、入力に応じて前景プロセスのインターフェースを操作します。
本研究は,人間と機械とのフレキシブルな相互作用を自然ユーザインタフェースと類似し得る直感的インタフェース技術の実現可能性を示し,非接触近接センシング技術による電界乱測定に基づく商業化の可能性を高めることを提案する。
関連論文リスト
- A Real-time Human Pose Estimation Approach for Optimal Sensor Placement
in Sensor-based Human Activity Recognition [63.26015736148707]
本稿では,人間の行動認識に最適なセンサ配置の課題を解決するための新しい手法を提案する。
得られた骨格データは、最適なセンサ位置を特定するためのユニークな戦略を提供する。
本研究は,センサ配置の視覚的手法が従来のディープラーニング手法と同等の結果をもたらすことを示唆している。
論文 参考訳(メタデータ) (2023-07-06T10:38:14Z) - Quantum Force Sensing by Digital Twinning of Atomic Bose-Einstein Condensates [2.916921958708415]
我々は、弱い信号検出感度を高めるために機械学習の能力を利用するデータ駆動型アプローチを提案する。
原子間力センサでは,無力データのデジタルレプリカと異常検出技術を組み合わせる。
本研究により,従来のプロトコルに比べて感度が著しく向上し,大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-07-02T06:10:00Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Recognizing Complex Gestures on Minimalistic Knitted Sensors: Toward
Real-World Interactive Systems [0.13048920509133805]
デジタル編みの容量型アクティブセンサーは、人間の介入はほとんどなく、大規模に製造できる。
本研究は,対話型ジェスチャー認識システムの基礎を構築することにより,そのようなセンサの能力を向上させる。
論文 参考訳(メタデータ) (2023-03-18T04:57:46Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - Learning to Detect Slip with Barometric Tactile Sensors and a Temporal
Convolutional Neural Network [7.346580429118843]
本研究では,バロメトリック・触覚センサを用いたスリップ検出手法を提案する。
我々は、スリップを検出するために時間畳み込みニューラルネットワークを訓練し、高い検出精度を実現する。
データ駆動学習と組み合わせたバロメトリック触覚センシング技術は,スリップ補償などの操作作業に適している,と我々は主張する。
論文 参考訳(メタデータ) (2022-02-19T08:21:56Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - Elastic Tactile Simulation Towards Tactile-Visual Perception [58.44106915440858]
触覚シミュレーションのための粒子の弾性相互作用(EIP)を提案する。
EIPは、触覚センサを協調粒子群としてモデル化し、接触時の粒子の変形を制御するために弾性特性を適用した。
さらに,触覚データと視覚画像間の情報融合を可能にする触覚知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-11T03:49:59Z) - AuraSense: Robot Collision Avoidance by Full Surface Proximity Detection [3.9770080498150224]
AuraSenseは、ロボットアームの非死点近接検知を実現する最初のシステムである。
1組の圧電トランスデューサしか必要とせず、市販のロボットにも容易に適用できる。
論文 参考訳(メタデータ) (2021-08-10T18:37:54Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - OmniTact: A Multi-Directional High Resolution Touch Sensor [109.28703530853542]
既存の触覚センサーは、平らで、感度が小さいか、低解像度の信号のみを提供する。
我々は,多方向高解像度触覚センサOmniTactを紹介する。
我々は,ロボット制御の課題に対して,OmniTactの能力を評価する。
論文 参考訳(メタデータ) (2020-03-16T01:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。