論文の概要: TinySense: Effective CSI Compression for Scalable and Accurate Wi-Fi Sensing
- arxiv url: http://arxiv.org/abs/2601.15838v1
- Date: Thu, 22 Jan 2026 10:44:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.575924
- Title: TinySense: Effective CSI Compression for Scalable and Accurate Wi-Fi Sensing
- Title(参考訳): TinySense: スケーラブルで正確なWi-Fiセンシングのための効果的なCSI圧縮
- Authors: Toan Gian, Dung T. Tran, Viet Quoc Pham, Francesco Restuccia, Van-Dinh Nguyen,
- Abstract要約: 本稿では,Wi-Fiによるヒューマンセンシングのスケーラビリティを向上させる,効率的な圧縮フレームワークTinySenseを紹介する。
我々のアプローチはベクトル量子化に基づく新たな生成逆ネットワーク(VQGAN)に基づいている。
- 参考スコア(独自算出の注目度): 10.777079283826003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the growing demand for device-free and privacy-preserving sensing solutions, Wi-Fi sensing has emerged as a promising approach for human pose estimation (HPE). However, existing methods often process vast amounts of channel state information (CSI) data directly, ultimately straining networking resources. This paper introduces TinySense, an efficient compression framework that enhances the scalability of Wi-Fi-based human sensing. Our approach is based on a new vector quantization-based generative adversarial network (VQGAN). Specifically, by leveraging a VQGAN-learned codebook, TinySense significantly reduces CSI data while maintaining the accuracy required for reliable HPE. To optimize compression, we employ the K-means algorithm to dynamically adjust compression bitrates to cluster a large-scale pre-trained codebook into smaller subsets. Furthermore, a Transformer model is incorporated to mitigate bitrate loss, enhancing robustness in unreliable networking conditions. We prototype TinySense on an experimental testbed using Jetson Nano and Raspberry Pi to measure latency and network resource use. Extensive results demonstrate that TinySense significantly outperforms state-of-the-art compression schemes, achieving up to 1.5x higher HPE accuracy score (PCK20) under the same compression rate. It also reduces latency and networking overhead, respectively, by up to 5x and 2.5x. The code repository is available online at here.
- Abstract(参考訳): デバイスフリーとプライバシ保護のセンサーソリューションの需要が高まる中、Wi-Fiセンシングは人間のポーズ推定(HPE)の有望なアプローチとして現れてきた。
しかし、既存の手法はしばしば大量のチャネル状態情報(CSI)データを直接処理し、究極的にはネットワークリソースを歪ませる。
本稿では,Wi-Fiによるヒューマンセンシングのスケーラビリティを向上させる,効率的な圧縮フレームワークTinySenseを紹介する。
提案手法はベクトル量子化に基づく生成逆数ネットワーク(VQGAN)に基づく。
具体的には、VQGANで学習したコードブックを利用することで、信頼性の高いHPEに必要な精度を維持しながら、CSIデータを著しく削減する。
圧縮を最適化するために、K平均アルゴリズムを用いて圧縮ビットレートを動的に調整し、大規模な事前学習されたコードブックをより小さなサブセットにクラスタ化する。
さらに、トランスフォーマーモデルは、ビットレート損失を軽減し、信頼性の低いネットワーク条件におけるロバスト性を高めるために組み込まれている。
我々は,Jetson Nano と Raspberry Pi を用いた実験ベッド上でTinySense を試作し,レイテンシとネットワークリソース使用量を計測した。
その結果、TinySenseは最先端の圧縮方式よりも優れており、同じ圧縮速度で最大1.5倍高いHPE精度スコア(PCK20)を達成できることがわかった。
また、レイテンシとネットワークオーバーヘッドを最大5倍と2.5倍に削減する。
コードリポジトリはここでオンラインで公開されている。
関連論文リスト
- CompressNAS : A Fast and Efficient Technique for Model Compression using Decomposition [1.9556774372563988]
ランク選択をグローバル検索問題として扱うフレームワークであるCompressNASを紹介する。
ImageNetでは、CompressNASはResNet-18を4%未満の精度低下で8倍圧縮し、COCOでは精度低下のないYOLOv5sの2倍圧縮を実現している。
圧縮モデルであるSTResNetを、他の効率的なモデルと比較して、競合性能の高い新しいファミリーとして提示する。
論文 参考訳(メタデータ) (2025-11-12T18:25:46Z) - MUC-G4: Minimal Unsat Core-Guided Incremental Verification for Deep Neural Network Compression [7.9569432009714145]
MUC-G4は、圧縮されたディープニューラルネットワークのインクリメンタル検証のための新しいフレームワークである。
オリジナルのネットワークと圧縮されたネットワークをSMTの公式にエンコードし、変更を分類し、オリジナルのネットワークからEmphMinimal Unsat Cores(MUC)を使用して、圧縮されたネットワークの効率的な検証を導く。
論文 参考訳(メタデータ) (2025-06-03T12:42:15Z) - Reducing Storage of Pretrained Neural Networks by Rate-Constrained Quantization and Entropy Coding [56.066799081747845]
成長を続けるニューラルネットワークのサイズは、リソースに制約のあるデバイスに深刻な課題をもたらす。
本稿では,レートアウェア量子化とエントロピー符号化を組み合わせた学習後圧縮フレームワークを提案する。
この方法では非常に高速な復号化が可能であり、任意の量子化グリッドと互換性がある。
論文 参考訳(メタデータ) (2025-05-24T15:52:49Z) - Denoising Diffusion Probabilistic Model for Point Cloud Compression at Low Bit-Rates [22.076896401919683]
本稿では,ポイントクラウド圧縮のためのデノイング拡散確率モデル(Denoising Diffusion Probabilistic Model)アーキテクチャを提案する。
PointNetエンコーダは生成条件ベクトルを生成し、学習可能なベクトル量子化器を介して量子化する。
ShapeNetとModelNet40の実験では、標準化と最先端のアプローチと比較して、低速度での速度歪みが改善された。
論文 参考訳(メタデータ) (2025-05-19T16:29:12Z) - "Lossless" Compression of Deep Neural Networks: A High-dimensional
Neural Tangent Kernel Approach [49.744093838327615]
広帯域かつ完全接続型エンフディープニューラルネットに対する新しい圧縮手法を提案する。
提案手法の利点を支えるために, 合成データと実世界のデータの両方の実験を行った。
論文 参考訳(メタデータ) (2024-03-01T03:46:28Z) - Attention-based Feature Compression for CNN Inference Offloading in Edge
Computing [93.67044879636093]
本稿では,デバイスエッジ共振器におけるCNN推論の計算負荷について検討する。
エンドデバイスにおける効率的な特徴抽出のための新しいオートエンコーダベースのCNNアーキテクチャ(AECNN)を提案する。
実験の結果、AECNNは中間データを約4%の精度で256倍圧縮できることがわかった。
論文 参考訳(メタデータ) (2022-11-24T18:10:01Z) - A Theoretical Understanding of Neural Network Compression from Sparse
Linear Approximation [37.525277809849776]
モデル圧縮の目標は、同等のパフォーマンスを維持しながら、大きなニューラルネットワークのサイズを減らすことだ。
圧縮性を特徴付けるためにスペーサ感度$ell_q$-normを使用し、ネットワーク内の重みの柔らかいスペーサと圧縮度の関係を提供する。
また,ネットワーク上で各ニューロンを切断する適応アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-11T20:10:35Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - ALF: Autoencoder-based Low-rank Filter-sharing for Efficient
Convolutional Neural Networks [63.91384986073851]
オートエンコーダを用いた低ランクフィルタ共有技術(ALF)を提案する。
ALFは、ネットワークパラメータの70%、オペレーションの61%、実行時間の41%を削減し、精度の低下を最小限にしている。
論文 参考訳(メタデータ) (2020-07-27T09:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。