論文の概要: Deep Transfer Learning for WiFi Localization
- arxiv url: http://arxiv.org/abs/2103.05123v1
- Date: Mon, 8 Mar 2021 22:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:45:53.898838
- Title: Deep Transfer Learning for WiFi Localization
- Title(参考訳): WiFiローカライゼーションのためのDeep Transfer Learning
- Authors: Peizheng Li, Han Cui, Aftab Khan, Usman Raza, Robert Piechocki, Angela
Doufexi, Tim Farnham
- Abstract要約: 本稿では,深層学習モデルを用いたWiFi屋内ローカライズ手法とその転送戦略について検討する。
障害物のない理想的なオフィス(6.5m×2.5m)で46.55cm、障害物のあるオフィスで58.30cm、スポーツホールで102.8cmのローカライズ精度を達成する。
- 参考スコア(独自算出の注目度): 4.260395796577057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies a WiFi indoor localisation technique based on using a deep
learning model and its transfer strategies. We take CSI packets collected via
the WiFi standard channel sounding as the training dataset and verify the CNN
model on the subsets collected in three experimental environments. We achieve a
localisation accuracy of 46.55 cm in an ideal $(6.5m \times 2.5m)$ office with
no obstacles, 58.30 cm in an office with obstacles, and 102.8 cm in a sports
hall $(40 \times 35m)$. Then, we evaluate the transfer ability of the proposed
model to different environments. The experimental results show that, for a
trained localisation model, feature extraction layers can be directly
transferred to other models and only the fully connected layers need to be
retrained to achieve the same baseline accuracy with non-transferred base
models. This can save 60% of the training parameters and reduce the training
time by more than half. Finally, an ablation study of the training dataset
shows that, in both office and sport hall scenarios, after reusing the feature
extraction layers of the base model, only 55% of the training data is required
to obtain the models' accuracy similar to the base models.
- Abstract(参考訳): 本稿では,深層学習モデルを用いたWiFi屋内ローカライズ手法とその転送戦略について検討する。
我々は,wi-fi標準チャネルから収集したcsiパケットをトレーニングデータセットとし,3つの実験環境で収集したサブセット上でcnnモデルを検証する。
我々は,障害のない理想のオフィス(6.5m \times 2.5m)$で46.55cm,障害物のあるオフィスで58.30cm,スポーツホールで102.8cmのローカライズ精度を達成する。
そこで,提案モデルの異なる環境への移動能力を評価する。
実験結果から, 訓練された局所化モデルでは, 特徴抽出層を他のモデルへ直接転送することが可能であり, 非伝達ベースモデルと同じベースライン精度を達成するためには, 完全に連結された層のみを再学習する必要があることがわかった。
これにより、トレーニングパラメータの60%を節約し、トレーニング時間を半分以上削減することができる。
最後に、トレーニングデータセットのアブレーション研究は、オフィスとスポーツホールの両方のシナリオにおいて、ベースモデルの特徴抽出層を再利用した後、ベースモデルに類似したモデルの精度を得るためにトレーニングデータの55%しか必要とされないことを示しています。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place
Recognition [76.66784893699054]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - BootsTAP: Bootstrapped Training for Tracking-Any-Point [59.78386347329731]
Tracking-Any-Point (TAP) は、ビデオ中の固体表面に対応する任意の点を追跡できるアルゴリズムである。
大規模でラベルなし、未修正の現実世界データは、最小限のアーキテクチャ変更でTAPモデルを改善することができる。
我々は,TAP-Vidベンチマークにおける最先端性能が,従来の結果よりも広いマージンで上回っていることを示す。
論文 参考訳(メタデータ) (2024-02-01T18:38:55Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - $\Delta$-Patching: A Framework for Rapid Adaptation of Pre-trained
Convolutional Networks without Base Performance Loss [71.46601663956521]
大規模なデータセットで事前トレーニングされたモデルはしばしば、時間とともにやってくる新しいタスクやデータセットをサポートするように微調整される。
モデルコピーを格納することなく、効率よく微調整ニューラルネットワークモデルに$Delta$-Patchingを提案する。
我々の実験によると、$Delta$-Networksは、トレーニングされるパラメータのごく一部しか必要とせず、初期のモデルパッチ作業より優れています。
論文 参考訳(メタデータ) (2023-03-26T16:39:44Z) - Train/Test-Time Adaptation with Retrieval [129.8579208970529]
Train/Test-Time Adaptation with Retrieval(rm T3AR$)を紹介します。
$rm T3AR$は、洗練された擬似ラベルと自己教師付きコントラスト目的関数を使用して、所定のモデルを下流タスクに適合させる。
検索モジュールのおかげで、ユーザまたはサービスプロバイダは、下流タスクのモデル適応を改善することができる。
論文 参考訳(メタデータ) (2023-03-25T02:44:57Z) - You Only Need a Good Embeddings Extractor to Fix Spurious Correlations [26.23962870932271]
GroupDROは、サブグループラベルを使ってエンドツーエンドでモデルをトレーニングする必要がある。
トレーニングセットのサブグループ情報を用いることなく,最大90%の精度が得られることを示す。
論文 参考訳(メタデータ) (2022-12-12T21:42:33Z) - DeepObliviate: A Powerful Charm for Erasing Data Residual Memory in Deep
Neural Networks [7.687838702806964]
DeepObliviateと呼ばれるアプローチを提案し、マシンアンラーニングを効率的に実装します。
本手法は,中間モデルをハードディスク上に格納することで,元のトレーニングプロセスを改善する。
ゼロから再トレーニングする方法と比較して、99.0%、95.0%、91.9%、96.7%、74.1%の精度と66.7$times$、75.0$times$、33.3$times$、29.4$times$、13.7$times$ speedupsが得られる。
論文 参考訳(メタデータ) (2021-05-13T12:02:04Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。