論文の概要: Radar-Based Recognition of Static Hand Gestures in American Sign
Language
- arxiv url: http://arxiv.org/abs/2402.12800v1
- Date: Tue, 20 Feb 2024 08:19:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:37:15.741229
- Title: Radar-Based Recognition of Static Hand Gestures in American Sign
Language
- Title(参考訳): レーダによるアメリカ手話における静的手指の認識
- Authors: Christian Schuessler, Wenxuan Zhang, Johanna Br\"aunig, Marcel
Hoffmann, Michael Stelzig, Martin Vossiek
- Abstract要約: 本研究では,先進レーダ線トレーシングシミュレータによる合成データの有効性について検討した。
シミュレータは直感的な材料モデルを採用し、データ多様性を導入するように調整することができる。
NNを合成データで専用にトレーニングしているにもかかわらず、実際の測定データでテストを行うと、有望な性能を示す。
- 参考スコア(独自算出の注目度): 17.021656590925005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the fast-paced field of human-computer interaction (HCI) and virtual
reality (VR), automatic gesture recognition has become increasingly essential.
This is particularly true for the recognition of hand signs, providing an
intuitive way to effortlessly navigate and control VR and HCI applications.
Considering increased privacy requirements, radar sensors emerge as a
compelling alternative to cameras. They operate effectively in low-light
conditions without capturing identifiable human details, thanks to their lower
resolution and distinct wavelength compared to visible light.
While previous works predominantly deploy radar sensors for dynamic hand
gesture recognition based on Doppler information, our approach prioritizes
classification using an imaging radar that operates on spatial information,
e.g. image-like data. However, generating large training datasets required for
neural networks (NN) is a time-consuming and challenging process, often falling
short of covering all potential scenarios. Acknowledging these challenges, this
study explores the efficacy of synthetic data generated by an advanced radar
ray-tracing simulator. This simulator employs an intuitive material model that
can be adjusted to introduce data diversity.
Despite exclusively training the NN on synthetic data, it demonstrates
promising performance when put to the test with real measurement data. This
emphasizes the practicality of our methodology in overcoming data scarcity
challenges and advancing the field of automatic gesture recognition in VR and
HCI applications.
- Abstract(参考訳): ヒューマン・コンピュータ・インタラクション(HCI)と仮想現実(VR)の分野では、自動ジェスチャー認識がますます重要になっている。
これは特に手話の認識に当てはまるもので、vrやhciアプリケーションを簡単にナビゲートし制御するための直感的な方法を提供する。
プライバシー要件の増加を考慮すると、レーダーセンサーはカメラの代替手段として注目される。
可視光に比べて解像度が低く、波長が異なるため、人間の詳細を捉えることなく、低照度環境で効果的に動作する。
従来,ドップラー情報に基づく動的ハンドジェスチャー認識のためのレーダーセンサを主に展開してきたが,画像データなどの空間情報に基づく画像レーダによる分類を優先する手法である。
しかしながら、ニューラルネットワーク(NN)に必要な大規模なトレーニングデータセットを生成するのは、時間がかかり、困難なプロセスである。
本研究は,これらの課題を認識し,レーダレイトレーシングシミュレータが生成する合成データの有効性について検討する。
このシミュレータは、データ多様性を導入するために調整可能な直感的な材料モデルを採用している。
NNを合成データで専用にトレーニングしているにもかかわらず、実際の測定データでテストを行うと有望な性能を示す。
これにより、データの不足を克服し、VRおよびHCIアプリケーションにおける自動ジェスチャー認識の分野を推し進める上で、我々の方法論の実践性が強調される。
関連論文リスト
- RadSimReal: Bridging the Gap Between Synthetic and Real Data in Radar Object Detection With Simulation [6.0158981171030685]
RadSimRealは、アノテーションを伴う合成レーダー画像を生成することができる革新的な物理レーダーシミュレーションである。
以上の結果から,RadSimRealデータを用いたオブジェクト検出モデルのトレーニングは,同一データセットの実際のデータ上でトレーニングおよびテストされたモデルに匹敵する性能レベルを達成することが示された。
この革新的なツールは、レーダーベースの自動運転アプリケーションのためのコンピュータビジョンアルゴリズムの開発を前進させる可能性がある。
論文 参考訳(メタデータ) (2024-04-28T11:55:50Z) - Leveraging Self-Supervised Instance Contrastive Learning for Radar
Object Detection [7.728838099011661]
本稿では,レーダ物体検出装置を事前訓練する際,RCLを例に紹介する。
我々は、より少ないデータで学習するために、物体検出器のバックボーン、頭、首を事前訓練することを目指している。
論文 参考訳(メタデータ) (2024-02-13T12:53:33Z) - Know Thy Neighbors: A Graph Based Approach for Effective Sensor-Based
Human Activity Recognition in Smart Homes [0.0]
スマートホームにおけるヒューマンアクティビティ認識(HAR)のためのグラフ誘導ニューラルネットワーク手法を提案する。
スマートホームにおけるセンサネットワークを表す,より表現力のあるグラフ構造を学習することで,これを実現する。
本手法は,アテンション機構の適用により,個別の入力センサ計測を特徴空間にマッピングする。
論文 参考訳(メタデータ) (2023-11-16T02:43:13Z) - Unsupervised Statistical Feature-Guided Diffusion Model for Sensor-based Human Activity Recognition [3.2319909486685354]
ウェアラブルセンサーによる人間の活動認識の進歩を支えている重要な問題は、多様なラベル付きトレーニングデータの利用不可能である。
本研究では,ウェアラブルセンサを用いた人間行動認識に特化して最適化された,教師なしの統計的特徴誘導拡散モデルを提案する。
平均,標準偏差,Zスコア,歪などの統計情報に拡散モデルを適用し,多種多様な合成センサデータを生成する。
論文 参考訳(メタデータ) (2023-05-30T15:12:59Z) - Improved Static Hand Gesture Classification on Deep Convolutional Neural
Networks using Novel Sterile Training Technique [2.534406146337704]
非接触手ポーズと静的ジェスチャー認識は多くのアプリケーションで注目されている。
本稿では, ステレオ画像の導入により, 効率的なデータ収集手法と深部CNN訓練手法を提案する。
提案されたデータ収集とトレーニング手法を適用すると、静的ハンドジェスチャの分類率が85%から93%に向上する。
論文 参考訳(メタデータ) (2023-05-03T11:10:50Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Domain and Modality Gaps for LiDAR-based Person Detection on Mobile
Robots [91.01747068273666]
本稿では,移動ロボットのシナリオに着目した既存のLiDAR人物検出装置について検討する。
実験は3Dと2D LiDARのセンサー間のモダリティのギャップだけでなく、運転と移動ロボットのシナリオ間の領域ギャップを回避している。
その結果、LiDARに基づく人物検出の実践的な洞察を与え、関連する移動ロボットの設計と応用に関する情報決定を容易にする。
論文 参考訳(メタデータ) (2021-06-21T16:35:49Z) - Task-relevant Representation Learning for Networked Robotic Perception [74.0215744125845]
本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
論文 参考訳(メタデータ) (2020-11-06T07:39:08Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Temporal Pulses Driven Spiking Neural Network for Fast Object
Recognition in Autonomous Driving [65.36115045035903]
スパイキングニューラルネットワーク(SNN)を用いた生時間パルスで直接物体認識問題に対処する手法を提案する。
各種データセットを用いて評価した結果,提案手法は最先端の手法に匹敵する性能を示しながら,優れた時間効率を実現している。
論文 参考訳(メタデータ) (2020-01-24T22:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。