論文の概要: Hierarchical Stage-Wise Training of Linked Deep Neural Networks for Multi-Building and Multi-Floor Indoor Localization Based on Wi-Fi RSSI Fingerprinting
- arxiv url: http://arxiv.org/abs/2407.13288v1
- Date: Thu, 18 Jul 2024 08:43:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 16:12:25.901588
- Title: Hierarchical Stage-Wise Training of Linked Deep Neural Networks for Multi-Building and Multi-Floor Indoor Localization Based on Wi-Fi RSSI Fingerprinting
- Title(参考訳): Wi-Fi RSSIフィンガープリントに基づくマルチビルディングとマルチフロア屋内ローカライゼーションのためのリンク型ディープニューラルネットワークの階層的ステージワイズトレーニング
- Authors: Sihao Li, Kyeong Soo Kim, Zhe Tang, Graduate, Jeremy S. Smith,
- Abstract要約: 本稿では,ニューラルネットワークを用いた大規模マルチビルディングとマルチフロア屋内ローカライゼーションの課題に対する新しい解を提案する。
階層的なステージワイドトレーニングフレームワークは、もともとのステージワイドトレーニングフレームワークを、複数のリンクネットワークの場合に拡張する。
提案したトレーニングフレームワークは、3次元の局所化誤差を11.78mから8.71mに著しく低減することができる。
- 参考スコア(独自算出の注目度): 3.86574270083089
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a new solution to the problem of large-scale multi-building and multi-floor indoor localization based on linked neural networks, where each neural network is dedicated to a sub-problem and trained under a hierarchical stage-wise training framework. When the measured data from sensors have a hierarchical representation as in multi-building and multi-floor indoor localization, it is important to exploit the hierarchical nature in data processing to provide a scalable solution. In this regard, the hierarchical stage-wise training framework extends the original stage-wise training framework to the case of multiple linked networks by training a lower-hierarchy network based on the prior knowledge gained from the training of higher-hierarchy networks. The experimental results with the publicly-available UJIIndoorLoc multi-building and multi-floor Wi-Fi RSSI fingerprint database demonstrate that the linked neural networks trained under the proposed hierarchical stage-wise training framework can achieve a three-dimensional localization error of 8.19 m, which, to the best of the authors' knowledge, is the most accurate result ever obtained for neural network-based models trained and evaluated with the full datasets of the UJIIndoorLoc database, and that, when applied to a model based on hierarchical convolutional neural networks, the proposed training framework can also significantly reduce the three-dimensional localization error from 11.78 m to 8.71 m.
- Abstract(参考訳): 本稿では,ニューラルネットワークがサブプロブレムに特化され,階層的な段階的トレーニングフレームワークの下でトレーニングされる,大規模マルチビルディングとマルチフロア屋内ローカライゼーションの課題に対する新しい解決策を提案する。
センサの計測データにマルチビルディングやマルチフロアの屋内位置決めのような階層的表現がある場合,データ処理における階層的特性を活用して,スケーラブルなソリューションを提供することが重要である。
この点において、階層的な段階訓練フレームワークは、複数のリンクネットワークの場合において、上位階層ネットワークのトレーニングから得られる事前知識に基づいて、下位階層ネットワークをトレーニングすることにより、元の段階訓練フレームワークを拡張している。
UJIIndoorLocのマルチビルディングとマルチフロアのWi-Fi RSSI指紋データベースによる実験結果は、提案した階層的な段階的トレーニングフレームワークでトレーニングされたリンクニューラルネットワークが3次元のローカライゼーション誤差8.19mを達成できることを示し、これは著者の知る限り、UJIIndoorLocデータベースの全データセットでトレーニングおよび評価されたニューラルネットワークベースモデルにおいて最も正確な結果であり、階層的な畳み込みニューラルネットワークに基づくモデルに適用した場合、提案したトレーニングフレームワークは3次元のローカライゼーション誤差を11.78mから8.71mに減少させることができる。
関連論文リスト
- Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Layerwise Sparsifying Training and Sequential Learning Strategy for
Neural Architecture Adaptation [0.0]
この研究は、与えられたトレーニングデータセットに順応し、一般化するために、ニューラルネットワークを開発するための2段階のフレームワークを提示します。
第1段階では、新しい層を毎回追加し、前層の凍結パラメータによって独立に訓練する、多様体規則化層ワイズトレーニングアプローチを採用する。
第2の段階では、第1の段階で生成された残余から情報を抽出するために、一連の小ネットワークを用いるシーケンシャルな学習プロセスを採用する。
論文 参考訳(メタデータ) (2022-11-13T09:51:16Z) - Recurrent Neural Networks with Mixed Hierarchical Structures and EM
Algorithm for Natural Language Processing [9.645196221785694]
我々は潜在指標層と呼ばれる手法を開発し、暗黙的な階層的情報を特定し学習する。
また、トレーニングにおいて潜在指標層を扱うEMアルゴリズムを開発した。
ブートストラップトレーニングによるEM-HRNNモデルは,文書分類タスクにおいて,他のRNNモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-21T23:08:33Z) - Hierarchical Multi-Building And Multi-Floor Indoor Localization Based On
Recurrent Neural Networks [2.0305676256390934]
Wi-Fiフィンガープリントを用いたリカレントニューラルネットワーク(RNN)に基づく階層型マルチビルディングとマルチフロア屋内ローカライゼーションを提案する。
提案手法は建物と床をそれぞれ100%と95.24%の精度で推定し、三次元位置決め誤差は8.62mである。
論文 参考訳(メタデータ) (2021-12-23T11:56:31Z) - Learning Structures for Deep Neural Networks [99.8331363309895]
我々は,情報理論に根ざし,計算神経科学に発達した効率的な符号化原理を採用することを提案する。
スパース符号化は出力信号のエントロピーを効果的に最大化できることを示す。
公開画像分類データセットを用いた実験により,提案アルゴリズムでスクラッチから学習した構造を用いて,最も優れた専門家設計構造に匹敵する分類精度が得られることを示した。
論文 参考訳(メタデータ) (2021-05-27T12:27:24Z) - Firefly Neural Architecture Descent: a General Approach for Growing
Neural Networks [50.684661759340145]
firefly neural architecture descentは、ニューラルネットワークを漸進的かつ動的に成長させるための一般的なフレームワークである。
ホタルの降下は、より広く、より深くネットワークを柔軟に成長させ、正確だがリソース効率のよいニューラルアーキテクチャを学習するために応用できることを示す。
特に、サイズは小さいが、最先端の手法で学習したネットワークよりも平均精度が高いネットワークを学習する。
論文 参考訳(メタデータ) (2021-02-17T04:47:18Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Distributed Training of Deep Learning Models: A Taxonomic Perspective [11.924058430461216]
分散ディープラーニングシステム(DDLS)は、クラスタの分散リソースを利用することで、ディープニューラルネットワークモデルをトレーニングする。
私たちは、独立したマシンのクラスタでディープニューラルネットワークをトレーニングする際の、作業の基本原則に光を当てることを目指しています。
論文 参考訳(メタデータ) (2020-07-08T08:56:58Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。