論文の概要: Deep Transfer Learning for WiFi Localization
- arxiv url: http://arxiv.org/abs/2103.05123v1
- Date: Mon, 8 Mar 2021 22:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:45:53.898838
- Title: Deep Transfer Learning for WiFi Localization
- Title(参考訳): WiFiローカライゼーションのためのDeep Transfer Learning
- Authors: Peizheng Li, Han Cui, Aftab Khan, Usman Raza, Robert Piechocki, Angela
Doufexi, Tim Farnham
- Abstract要約: 本稿では,深層学習モデルを用いたWiFi屋内ローカライズ手法とその転送戦略について検討する。
障害物のない理想的なオフィス(6.5m×2.5m)で46.55cm、障害物のあるオフィスで58.30cm、スポーツホールで102.8cmのローカライズ精度を達成する。
- 参考スコア(独自算出の注目度): 4.260395796577057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies a WiFi indoor localisation technique based on using a deep
learning model and its transfer strategies. We take CSI packets collected via
the WiFi standard channel sounding as the training dataset and verify the CNN
model on the subsets collected in three experimental environments. We achieve a
localisation accuracy of 46.55 cm in an ideal $(6.5m \times 2.5m)$ office with
no obstacles, 58.30 cm in an office with obstacles, and 102.8 cm in a sports
hall $(40 \times 35m)$. Then, we evaluate the transfer ability of the proposed
model to different environments. The experimental results show that, for a
trained localisation model, feature extraction layers can be directly
transferred to other models and only the fully connected layers need to be
retrained to achieve the same baseline accuracy with non-transferred base
models. This can save 60% of the training parameters and reduce the training
time by more than half. Finally, an ablation study of the training dataset
shows that, in both office and sport hall scenarios, after reusing the feature
extraction layers of the base model, only 55% of the training data is required
to obtain the models' accuracy similar to the base models.
- Abstract(参考訳): 本稿では,深層学習モデルを用いたWiFi屋内ローカライズ手法とその転送戦略について検討する。
我々は,wi-fi標準チャネルから収集したcsiパケットをトレーニングデータセットとし,3つの実験環境で収集したサブセット上でcnnモデルを検証する。
我々は,障害のない理想のオフィス(6.5m \times 2.5m)$で46.55cm,障害物のあるオフィスで58.30cm,スポーツホールで102.8cmのローカライズ精度を達成する。
そこで,提案モデルの異なる環境への移動能力を評価する。
実験結果から, 訓練された局所化モデルでは, 特徴抽出層を他のモデルへ直接転送することが可能であり, 非伝達ベースモデルと同じベースライン精度を達成するためには, 完全に連結された層のみを再学習する必要があることがわかった。
これにより、トレーニングパラメータの60%を節約し、トレーニング時間を半分以上削減することができる。
最後に、トレーニングデータセットのアブレーション研究は、オフィスとスポーツホールの両方のシナリオにおいて、ベースモデルの特徴抽出層を再利用した後、ベースモデルに類似したモデルの精度を得るためにトレーニングデータの55%しか必要とされないことを示しています。
関連論文リスト
- Transferable Post-training via Inverse Value Learning [83.75002867411263]
別個のニューラルネットワーク(すなわち値ネットワーク)を用いた後学習におけるロジットレベルのモデリング変更を提案する。
このネットワークをデモを使って小さなベースモデルでトレーニングした後、推論中に他のトレーニング済みモデルとシームレスに統合することができる。
得られた値ネットワークは、パラメータサイズの異なる事前学習されたモデル間で広い転送性を有することを示す。
論文 参考訳(メタデータ) (2024-10-28T13:48:43Z) - FINE: Factorizing Knowledge for Initialization of Variable-sized Diffusion Models [35.40065954148091]
FINEはLearngeneフレームワークに基づく、事前訓練されたモデルを利用した下流ネットワークの初期化手法である。
事前学習された知識を行列の積(例えば$U$, $Sigma$, $V$)に分解する。
これは、特により小さなモデルにおいて、直接事前訓練よりも一貫して優れており、可変モデルのサイズで最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-09-28T08:57:17Z) - Data Efficient Acoustic Scene Classification using Teacher-Informed Confusing Class Instruction [11.15868814062321]
異なるサイズのトレーニング分割に取り組むために、3つのシステムが導入されている。
小規模なトレーニング分割のために,提案するベースラインモデルの複雑さを低減し,ベースチャネルの数を減少させることを検討した。
より大きなトレーニング分割のために、FocusNetを使用して、複数のPatchout faSt Spectrogram Transformer(PaSST)モデルと、元のサンプリングレート44.1kHzでトレーニングされたベースラインモデルのアンサンブルに、混乱したクラス情報を提供する。
論文 参考訳(メタデータ) (2024-09-18T13:16:00Z) - DataComp-LM: In search of the next generation of training sets for language models [200.5293181577585]
DataComp for Language Models (DCLM)は、制御されたデータセット実験のためのテストベッドであり、言語モデルを改善することを目的としている。
我々は、Common Crawlから抽出された240Tトークンの標準化コーパス、OpenLMフレームワークに基づく効果的な事前学習レシピ、53の下流評価スイートを提供する。
DCLMベンチマークの参加者は、412Mから7Bパラメータのモデルスケールでの重複、フィルタリング、データ混合などのデータキュレーション戦略を実験することができる。
論文 参考訳(メタデータ) (2024-06-17T17:42:57Z) - Towards Seamless Adaptation of Pre-trained Models for Visual Place Recognition [72.35438297011176]
視覚的位置認識のための事前学習モデル(VPR)のシームレスな適応を実現する新しい手法を提案する。
具体的には、地域を識別するための有意義なランドマークに焦点を当てたグローバルな特徴とローカルな特徴の両方を得るために、ハイブリッド適応法を設計する。
実験結果から,本手法はトレーニングデータやトレーニング時間が少なく,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-02-22T12:55:01Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - $\Delta$-Patching: A Framework for Rapid Adaptation of Pre-trained
Convolutional Networks without Base Performance Loss [71.46601663956521]
大規模なデータセットで事前トレーニングされたモデルはしばしば、時間とともにやってくる新しいタスクやデータセットをサポートするように微調整される。
モデルコピーを格納することなく、効率よく微調整ニューラルネットワークモデルに$Delta$-Patchingを提案する。
我々の実験によると、$Delta$-Networksは、トレーニングされるパラメータのごく一部しか必要とせず、初期のモデルパッチ作業より優れています。
論文 参考訳(メタデータ) (2023-03-26T16:39:44Z) - Train/Test-Time Adaptation with Retrieval [129.8579208970529]
Train/Test-Time Adaptation with Retrieval(rm T3AR$)を紹介します。
$rm T3AR$は、洗練された擬似ラベルと自己教師付きコントラスト目的関数を使用して、所定のモデルを下流タスクに適合させる。
検索モジュールのおかげで、ユーザまたはサービスプロバイダは、下流タスクのモデル適応を改善することができる。
論文 参考訳(メタデータ) (2023-03-25T02:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。