論文の概要: Gesture recognition with 60GHz 802.11 waveforms
- arxiv url: http://arxiv.org/abs/2002.10836v1
- Date: Tue, 25 Feb 2020 12:49:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 22:03:26.255836
- Title: Gesture recognition with 60GHz 802.11 waveforms
- Title(参考訳): 60GHz 802.11 波形を用いたジェスチャー認識
- Authors: Eran Hof, Amichai Sanderovich, Evyatar Hemo
- Abstract要約: 802.11個のad/y波形を用いたジェスチャー認識アプリケーションを開発した。
パケットのチャネル推定フィールドのGolayシーケンスに基づいて,スライダ制御の同時ジェスチャーとスイッチングのための2指ジェスチャーを検出する。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gesture recognition application over 802.11 ad/y waveforms is developed.
Simultaneous gestures of slider-control and two-finger gesture for switching
are detected based on Golay sequences of channel estimation fields of the
packets.
- Abstract(参考訳): 802.11 ad/y波形を用いたジェスチャー認識アプリケーションを開発した。
パケットのチャネル推定フィールドのGolayシーケンスに基づいて,スライダ制御の同時ジェスチャーとスイッチングのための2指ジェスチャーを検出する。
関連論文リスト
- Joint Sensing and Semantic Communications with Multi-Task Deep Learning [49.83882366499547]
無線チャンネル上で動作し、ノイズ及びフェーディング効果を受ける送信機と受信機とを含む統合システムである。
送信機は、ソースコーディング、チャネルコーディング、変調のジョイントオペレーションのために、ディープニューラルネットワーク、すなわちエンコーダを使用する。
受信機は、復調、チャネル復号、ソース復号のジョイントオペレーションにおいて、別のディープニューラルネットワーク、すなわちデコーダを使用してデータサンプルを再構築する。
論文 参考訳(メタデータ) (2023-11-08T21:03:43Z) - Gesture Recognition for FMCW Radar on the Edge [0.0]
ジェスチャーは5つの特徴の集合によって効率的に特徴付けられることを示す。
リカレントニューラルネットワーク(RNN)ベースのアーキテクチャは、これらの特徴を利用して、5つの異なるジェスチャーを共同で検出し、分類する。
提案システムでは, ホールドアウトテストデータセットにおいて, 98.4%のF1スコアでジェスチャーを認識する。
論文 参考訳(メタデータ) (2023-10-13T06:03:07Z) - Histogram Layer Time Delay Neural Networks for Passive Sonar
Classification [58.720142291102135]
時間遅延ニューラルネットワークとヒストグラム層を組み合わせた新しい手法により,特徴学習の改善と水中音響目標分類を実現する。
提案手法はベースラインモデルより優れており,受動的ソナー目標認識のための統計的文脈を取り入れた有効性を示す。
論文 参考訳(メタデータ) (2023-07-25T19:47:26Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - Hand gesture recognition using 802.11ad mmWave sensor in the mobile
device [2.5476515662939563]
スマートフォンにおける802.11ad 60GHz (mmWave) 技術を用いたAI支援手振り認識の実現可能性について検討する。
我々は、時間分割デュプレックス(TDD)によってレーダーセンシングと通信波形が共存できるプロトタイプシステムを構築した。
センシングデータを収集し、100ミリ秒以内にジェスチャーを予測する。
論文 参考訳(メタデータ) (2022-11-14T03:36:17Z) - GraSens: A Gabor Residual Anti-aliasing Sensing Framework for Action
Recognition using WiFi [52.530330427538885]
WiFiベースのヒューマンアクション認識(HAR)は、スマートリビングやリモート監視といったアプリケーションにおいて、有望なソリューションと見なされている。
本稿では,無線機器からのWiFi信号を用いた動作を,多様なシナリオで直接認識する,エンド・ツー・エンドのGabor残差検知ネットワーク(GraSens)を提案する。
論文 参考訳(メタデータ) (2022-05-24T10:20:16Z) - Attention-based Dual-stream Vision Transformer for Radar Gait
Recognition [24.90100456414406]
レーダー歩行認識は、光の変動に頑丈で、プライバシーに対する侵害も少ない。
本研究では、注意に基づく融合を伴う2重ストリームニューラルネットワークを提案し、識別情報を完全集約する。
提案手法は,レーダ歩行認識のための大規模なベンチマークデータセット上で検証され,最先端のソリューションよりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2021-11-24T06:16:53Z) - Towards Domain-Independent and Real-Time Gesture Recognition Using
mmWave Signal [11.76969975145963]
DI-Gesture はドメインに依存しないリアルタイムの mmWave ジェスチャー認識システムである。
リアルタイムシナリオでは、DI-Gesutreの精度は平均推定時間2.87msで97%以上に達する。
論文 参考訳(メタデータ) (2021-11-11T13:28:28Z) - SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild [62.450907796261646]
手のジェスチャーの認識は、ソフトウェアによって推定される手の骨格のストリームから直接行うことができる。
最近のスケルトンからのジェスチャーや行動認識の進歩にもかかわらず、現在の最先端技術が現実のシナリオでどの程度うまく機能するかは明らかではない。
本稿では,SHREC 2021: Track on Skeleton-based Hand Gesture Recognition in the Wild contestについて述べる。
論文 参考訳(メタデータ) (2021-06-21T10:57:49Z) - WaveGrad 2: Iterative Refinement for Text-to-Speech Synthesis [80.60577805727624]
WaveGrad 2は音声合成のための非自己回帰生成モデルである。
最先端のニューラルTSシステムの性能に近づき、高忠実度オーディオを生成することができる。
論文 参考訳(メタデータ) (2021-06-17T17:09:21Z) - Face Verification Using 60~GHz 802.11 waveforms [2.294014185517203]
テストには200人の顔のデータセットが収集された。
予備研究は、手前の設定にオートエンコーダを応用するための有望な結果を示している。
論文 参考訳(メタデータ) (2020-02-27T08:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。