論文の概要: LiveSense: A Real-Time Wi-Fi Sensing Platform for Range-Doppler on COTS Laptop
- arxiv url: http://arxiv.org/abs/2603.06545v1
- Date: Fri, 06 Mar 2026 18:33:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.397109
- Title: LiveSense: A Real-Time Wi-Fi Sensing Platform for Range-Doppler on COTS Laptop
- Title(参考訳): LiveSense:COTSラップトップ上のレンジドップラーのためのリアルタイムWi-Fiセンシングプラットフォーム
- Authors: Jessica Sanson, Rahul C. Shah, Maximilian Pinaroc, Cagri Tanriover, Valerio Frascolla,
- Abstract要約: We present LiveSense - a cross-platform that transforms a commercial off-the-shelf (COTS) Wi-Fi Network Interface Card on a laptop to a cm-level Range-Doppler sensor。
COTS Intel AX211 (Wi-Fi 6E) または Intel BE201 (Wi-Fi 7) NICs を搭載している。
LiveSense は (i) 完全同期チャネル状態情報 (CSI) を >= 40 Hz で抽出し、 (ii) 時間相アライメントと自己干渉キャンセルをデバイス上で実行する。
- 参考スコア(独自算出の注目度): 1.3982021888398057
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present LiveSense - a cross-platform that transforms a commercial off-the-shelf (COTS) Wi-Fi Network Interface Card (NIC) on a laptop into a centimeter-level Range-Doppler sensor while preserving simultaneous communication capability. The laptops are equipped with COTS Intel AX211 (Wi-Fi 6E) or Intel BE201 (Wi-Fi 7) NICs. LiveSense can (i) Extract fully-synchronized channel state information (CSI) at >= 40 Hz, (ii) Perform time-phase alignment and self-interference cancellation on-device, and (iii) Provide a real-time stream of range, Doppler, subcarrier magnitude/phase and annotated video frames to a Python/Qt Graphical User Interface (GUI). The demo will showcase the ability to detect (i) Distance and radial velocity of attendees within a few meters of the device, (ii) Micro-motion (respiration), and (iii) Hand-gesture ranging. To the best of our knowledge, this is the first-ever demo to obtain accurate range information of targets from commercial Wi-Fi, despite the limited 160 MHz bandwidth.
- Abstract(参考訳): LiveSense - 市販のオフザシェルフ(COTS)Wi-Fiネットワークインタフェースカード(NIC)を、同時通信能力を保ちながら、ラップトップからセンチレベルのレンジドップラーセンサーに変換するクロスプラットフォーム。
COTS Intel AX211 (Wi-Fi 6E) または Intel BE201 (Wi-Fi 7) NICs を搭載している。
LiveSenseは使える
(i) >=40Hzの完全同期チャネル状態情報(CSI)を抽出する。
二 デバイス上での時相アライメント及び自己干渉キャンセルを行うこと。
(iii)Python/Qtグラフィカルユーザインタフェース(GUI)に、範囲、ドップラー、サブキャリアサイズ/フェーズ、アノテーション付きビデオフレームのリアルタイムストリームを提供する。
デモでは、検出する機能を紹介します
一 装置から数メートル以内の参加者の距離及び放射速度
(二)マイクロモーション(呼吸)、及び
(三)手身位。
われわれの知る限り、これは160MHzの帯域幅に制限があるにもかかわらず、商用Wi-Fiからターゲットの正確な範囲情報を入手する最初のデモだ。
関連論文リスト
- Mesquite MoCap: Democratizing Real-Time Motion Capture with Affordable, Bodyworn IoT Sensors and WebXR SLAM [0.509152775326595]
Mesquiteはオープンソースの低コストな慣性モーションキャプチャシステムである。
15のIMUセンサーノードと、位置追跡用のヒップウーンのAndroidスマートフォンを組み合わせたものだ。
我々は,オープンソースライセンス(GNU)の下でハードウェア設計,ファームウェア,ソフトウェアをリリースする。
論文 参考訳(メタデータ) (2025-12-27T19:39:51Z) - WiFi-based Cross-Domain Gesture Recognition Using Attention Mechanism [61.79272554643873]
本稿では,マルチセマンティックアテンション機構と自己注意に基づくチャネル機構を融合したジェスチャー認識ネットワークを提案する。
その結果、99.72%のドメイン内精度を維持するだけでなく、97.61%のクロスドメイン認識でも高い性能を発揮することがわかった。
論文 参考訳(メタデータ) (2025-12-04T07:09:13Z) - Extracting Range-Doppler Information of Moving Targets from Wi-Fi Channel State Information [1.3581639904351783]
3つの重要な革新を通じて両課題に対処する新しい信号処理手法を提案する。
提案手法は、商用のIntel WiFi AX211を用いて、移動目標のレンジドプラ推定におけるcmレベルの精度を実現する。
論文 参考訳(メタデータ) (2025-08-04T18:10:18Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Hand gesture recognition using 802.11ad mmWave sensor in the mobile
device [2.5476515662939563]
スマートフォンにおける802.11ad 60GHz (mmWave) 技術を用いたAI支援手振り認識の実現可能性について検討する。
我々は、時間分割デュプレックス(TDD)によってレーダーセンシングと通信波形が共存できるプロトタイプシステムを構築した。
センシングデータを収集し、100ミリ秒以内にジェスチャーを予測する。
論文 参考訳(メタデータ) (2022-11-14T03:36:17Z) - WiFi-based Spatiotemporal Human Action Perception [53.41825941088989]
SNN(End-to-end WiFi signal Neural Network)は、Wi-Fiのみのセンシングを可能にするために提案されている。
特に、3D畳み込みモジュールはWiFi信号の時間的連続性を探索することができ、特徴自己保持モジュールは支配的な特徴を明示的に維持することができる。
論文 参考訳(メタデータ) (2022-06-20T16:03:45Z) - A Wireless-Vision Dataset for Privacy Preserving Human Activity
Recognition [53.41825941088989]
アクティビティ認識の堅牢性を改善するため,WiNN(WiFi-based and video-based neural network)が提案されている。
以上の結果から,WiViデータセットは一次需要を満足し,パイプライン内の3つのブランチはすべて,80%以上のアクティビティ認識精度を維持していることがわかった。
論文 参考訳(メタデータ) (2022-05-24T10:49:11Z) - A Prospective Approach for Human-to-Human Interaction Recognition from
Wi-Fi Channel Data using Attention Bidirectional Gated Recurrent Neural
Network with GUI Application Implementation [0.0]
本研究は、WiFiルータとIntel 5300 NIC間の多重入力多重出力無線リンクと、時系列Wi-Fiチャネル状態情報を用いて、人対人同時通信認識を行う。
提案した自己注意誘導双方向Gated Recurrent Neural Networkは、13の相互相互作用を1つの主題ペアに対して最大94%のベンチマーク精度で分類することができる。
論文 参考訳(メタデータ) (2022-02-16T15:40:52Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Real-Time Video Inference on Edge Devices via Adaptive Model Streaming [9.101956442584251]
携帯電話やドローンなどのエッジデバイス上でのリアルタイムビデオ推論は、Deep Neural Networksのコストが高いため、難しい。
本稿では、エッジデバイス上での映像推論のための効率的な軽量モデルの性能向上のための新しいアプローチであるAdaptive Model Streaming (AMS)を提案する。
論文 参考訳(メタデータ) (2020-06-11T17:25:44Z) - Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian
Detection [99.94079901071163]
本稿では、ダイナミックビジョンセンサ(DVS)を用いた歩行者検出のための新しいエンドツーエンドシステムを提案する。
我々は、複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにしている。
我々の検出器は450ミリ秒毎に検出を行うことができ、総合的なテストF1スコアは83%である。
論文 参考訳(メタデータ) (2020-04-03T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。