論文の概要: Parameter-Efficient Domain Adaption for CSI Crowd-Counting via Self-Supervised Learning with Adapter Modules
- arxiv url: http://arxiv.org/abs/2601.02203v1
- Date: Mon, 05 Jan 2026 15:27:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.242472
- Title: Parameter-Efficient Domain Adaption for CSI Crowd-Counting via Self-Supervised Learning with Adapter Modules
- Title(参考訳): 適応モジュールを用いた自己教師付き学習によるCSIクラウドカウンティングのためのパラメータ効率の良いドメイン適応
- Authors: Oliver Custance, Saad Khan, Simon Parkinson, Quan Z. Sheng,
- Abstract要約: WiFi Channel State Information(CSI)を使用したデバイスフリーのクラウドカウントは、新しい世代のプライバシ保護用IoT(Internet of Things)アプリケーションを可能にする重要な技術である。
本稿では,CSI-ResNet-Aアーキテクチャを中心とした新しい2段階フレームワークを提案する。
このモデルは、自己教師付きコントラスト学習を通じてドメイン不変表現を学習し、軽量なAdapterモジュールを活用して高効率な微調整を行う。
私たちのフレームワークは、98.8%の精度で、最先端のパブリックWiARベンチマークを新たに設定しています。
- 参考スコア(独自算出の注目度): 11.651086215885735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Device-free crowd-counting using WiFi Channel State Information (CSI) is a key enabling technology for a new generation of privacy-preserving Internet of Things (IoT) applications. However, practical deployment is severely hampered by the domain shift problem, where models trained in one environment fail to generalise to another. To overcome this, we propose a novel two-stage framework centred on a CSI-ResNet-A architecture. This model is pre-trained via self-supervised contrastive learning to learn domain-invariant representations and leverages lightweight Adapter modules for highly efficient fine-tuning. The resulting event sequence is then processed by a stateful counting machine to produce a final, stable occupancy estimate. We validate our framework extensively. On our WiFlow dataset, our unsupervised approach excels in a 10-shot learning scenario, achieving a final Mean Absolute Error (MAE) of just 0.44--a task where supervised baselines fail. To formally quantify robustness, we introduce the Generalisation Index (GI), on which our model scores near-perfectly, confirming its ability to generalise. Furthermore, our framework sets a new state-of-the-art public WiAR benchmark with 98.8\% accuracy. Our ablation studies reveal the core strength of our design: adapter-based fine-tuning achieves performance within 1\% of a full fine-tune (98.84\% vs. 99.67\%) while training 97.2\% fewer parameters. Our work provides a practical and scalable solution for developing robust sensing systems ready for real-world IoT deployments.
- Abstract(参考訳): WiFi Channel State Information(CSI)を使用したデバイスフリーのクラウドカウントは、新しい世代のプライバシ保護用IoT(Internet of Things)アプリケーションを可能にする重要な技術である。
しかし、現実的なデプロイメントは、ある環境で訓練されたモデルが別の環境に一般化できないというドメインシフトの問題によって著しく妨げられている。
そこで我々は,CSI-ResNet-Aアーキテクチャを中心とした新しい2段階フレームワークを提案する。
このモデルは、自己教師付きコントラスト学習を通じてドメイン不変表現を学習し、軽量なAdapterモジュールを活用して高効率な微調整を行う。
結果のイベントシーケンスはステートフルカウントマシンによって処理され、最終的な、安定した占有率推定を生成する。
我々は枠組みを広く検証する。
当社のWiFlowデータセットでは、教師なしのアプローチが10ショットの学習シナリオに優れており、教師付きベースラインが失敗するタスクである0.44で最終的な平均絶対誤差(MAE)を実現しています。
本稿では,ロバスト性を形式的に定量化するために,モデルがほぼ完璧に得点し,その一般化能力を確認する一般化指数(GI)を導入する。
さらに、我々のフレームワークは、98.8\%の精度で、最先端のパブリックWiARベンチマークを新たに設定する。
アダプタベースのファインチューニングは、97.2\%未満のパラメータをトレーニングしながら、フルファインチューン(98.84\% vs. 99.67\%)の1/%以内のパフォーマンスを達成する。
私たちの作業は、現実のIoTデプロイメントに備えた堅牢なセンシングシステムを開発するための、実用的でスケーラブルなソリューションを提供します。
関連論文リスト
- FedAPA: Federated Learning with Adaptive Prototype Aggregation Toward Heterogeneous Wi-Fi CSI-based Crowd Counting [12.376024466247415]
Wi-Fiチャネル状態情報(CSI)に基づくセンシングは、人間の活動認識や群衆カウントといったタスクに対して、非侵襲的でデバイスフリーなアプローチを提供する。
本稿では、アダプティブプロトタイプアグリゲーション(APA)戦略を用いて、類似度に基づく重み付けをピアプロトタイプに割り当てる、協調的なWi-Fi CSIベースのセンシングアルゴリズムであるFedAPAを提案する。
我々は、FedAPAの収束分析を行い、6つの環境と最大20人の実世界分散Wi-Fiクラウドカウントシナリオで評価する。
論文 参考訳(メタデータ) (2025-11-26T04:33:57Z) - DPFNAS: Differential Privacy-Enhanced Federated Neural Architecture Search for 6G Edge Intelligence [23.831063160844092]
本稿では,パーソナライズド・ディファレンシャル・プライバシ(DP)と適応モデル設計を統合した新しいフェデレーション学習フレームワークを提案する。
提案手法は,トレーニングデータに対する強力なプライバシ保証を実現すると同時に,モデル性能における最先端手法を大幅に上回る。
論文 参考訳(メタデータ) (2025-09-27T01:03:26Z) - Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing [58.56017169759816]
本稿では,テスト時に顔のアンチスプーフィングモデルをクライアント自身でターゲットドメインに適応させる新しい手法を提案する。
具体的には,プロトタイプベースモデルと最適トランスポート誘導型アダプタを開発した。
近年の手法と比較して、クロスドメインおよびクロスアタック設定では、HTERが19.17%、AUCが8.58%の平均相対的改善が達成されている。
論文 参考訳(メタデータ) (2025-03-29T06:10:34Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Efficient Post-Training Augmentation for Adaptive Inference in
Heterogeneous and Distributed IoT Environments [4.343246899774834]
Early Exit Neural Networks (EENN)は、ニューラルネットワークのデプロイメントの効率を高めるソリューションを提供する。
本稿では,既存のモデルをEENNに変換することに焦点を当てた自動拡張フローを提案する。
本フレームワークはEENNアーキテクチャを構築し,そのサブグラフをハードウェアターゲットにマップし,その決定機構を構成する。
論文 参考訳(メタデータ) (2024-03-12T08:27:53Z) - End-to-End Temporal Action Detection with 1B Parameters Across 1000 Frames [55.72994484532856]
時間的行動検出(TAD)は、エンドツーエンドのトレーニングで大幅に改善された。
メモリボトルネックのため、限られたスケールと限られたデータ量を持つモデルだけがエンドツーエンドのトレーニングを受けることができる。
エンド・ツー・エンドトレーニングのメモリ消費を削減し,10億のパラメータと入力映像を1,536フレームにスケールアップする。
論文 参考訳(メタデータ) (2023-11-28T21:31:04Z) - Supernet Training for Federated Image Classification under System
Heterogeneity [15.2292571922932]
本研究では,2つのシナリオ,すなわちフェデレーション・オブ・スーパーネット・トレーニング(FedSup)を考えるための新しい枠組みを提案する。
フェデレートラーニング(FL)のモデルアグリゲーション段階でのパラメータの平均化は、スーパーネットトレーニングにおけるウェイトシェアリングとどのように似ているかに着想を得ている。
本フレームワークでは,通信コストの削減とトレーニングオーバーヘッドの低減のために,放送段階のクライアントにサブモデルを送信することで,効率的なアルゴリズム(E-FedSup)を提案する。
論文 参考訳(メタデータ) (2022-06-03T02:21:01Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - DSEE: Dually Sparsity-embedded Efficient Tuning of Pre-trained Language
Models [152.29364079385635]
事前訓練されたモデルが大きくなればなるほど、微調整のプロセスは時間がかかり、計算コストがかかる可能性がある。
本稿では,重み更新と最終モデルの重み付けに先立って,疎度を活用することで,資源・パラメータ効率の微調整を行うフレームワークを提案する。
提案するフレームワークは,Dually Sparsity-Embeded Efficient Tuning (DSEE)と呼ばれ,パラメータ効率のよい微調整とリソース効率の推論という2つの重要な目標を達成することを目的としている。
論文 参考訳(メタデータ) (2021-10-30T03:29:47Z) - Generalized Reinforcement Meta Learning for Few-Shot Optimization [3.7675996866306845]
本稿では, 汎用的かつ柔軟な強化学習(RL)に基づくメタラーニングフレームワークを提案する。
我々のフレームワークは簡単にネットワークアーキテクチャ検索に拡張できる。
論文 参考訳(メタデータ) (2020-05-04T03:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。