論文の概要: Indoor Millimeter Wave Localization using Multiple Self-Supervised Tiny
Neural Networks
- arxiv url: http://arxiv.org/abs/2311.18732v1
- Date: Thu, 30 Nov 2023 17:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 15:32:39.618039
- Title: Indoor Millimeter Wave Localization using Multiple Self-Supervised Tiny
Neural Networks
- Title(参考訳): 複数の自己教師付き微小ニューラルネットワークを用いた屋内ミリ波定位
- Authors: Anish Shastri, Andres Garcia-Saavedra, Paolo Casari
- Abstract要約: 多層パーセプトロンニューラルネットワーク(NN)を用いた大規模屋内環境における移動ミリ波クライアントの局在について考察する。
本稿では,カルマンフィルタに基づく2つのスイッチング方式と,トレーニングデータの統計的分布に基づく1つのスイッチング方式を提案する。
提案手法をシミュレーションにより解析し,幾何学的局所化スキームと1つのNNの使用の両方に優れることを示す。
- 参考スコア(独自算出の注目度): 7.776162183510523
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the localization of a mobile millimeter-wave client in a large
indoor environment using multilayer perceptron neural networks (NNs). Instead
of training and deploying a single deep model, we proceed by choosing among
multiple tiny NNs trained in a self-supervised manner. The main challenge then
becomes to determine and switch to the best NN among the available ones, as an
incorrect NN will fail to localize the client. In order to upkeep the
localization accuracy, we propose two switching schemes: one based on a Kalman
filter, and one based on the statistical distribution of the training data. We
analyze the proposed schemes via simulations, showing that our approach
outperforms both geometric localization schemes and the use of a single NN.
- Abstract(参考訳): マルチ層パーセプトロンニューラルネットワーク(NN)を用いた大規模屋内環境における移動ミリ波クライアントの局所化を検討した。
単一のディープモデルをトレーニングしてデプロイする代わりに、自己管理的な方法でトレーニングされた複数の小さなNNを選択します。
不正なNNがクライアントのローカライズに失敗するため、主要な課題は、利用可能なNNの中で最高のNNを決定して切り替えることである。
ローカライズ精度を向上させるために,カルマンフィルタに基づくものと,トレーニングデータの統計分布に基づくものという2つのスイッチング方式を提案する。
提案手法をシミュレーションにより解析し,幾何学的局所化スキームと1つのNNの使用の両方に優れることを示す。
関連論文リスト
- The Robustness of Spiking Neural Networks in Communication and its Application towards Network Efficiency in Federated Learning [6.9569682335746235]
スパイキングニューラルネットワーク(SNN)は最近、組み込みデバイスでのオンチップ学習に多大な関心を集めている。
本稿では,フェデレートラーニングにおける雑音の多いコミュニケーション下でのSNNの本質的ロバスト性について検討する。
FLトレーニングにおける帯域幅の削減を目的とした,TopKスパシフィケーションを用いた新しいフェデレートラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-19T13:37:18Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - ADDS: Adaptive Differentiable Sampling for Robust Multi-Party Learning [24.288233074516455]
本稿では,多人数学習のための適応型微分可能サンプリングフレームワーク(ADDS)を提案する。
提案手法は,集中モデル収束を高速化しながら,局所的な計算と通信コストを大幅に削減する。
論文 参考訳(メタデータ) (2021-10-29T03:35:15Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Wireless Localisation in WiFi using Novel Deep Architectures [4.541069830146568]
本稿では,コモディティ・チップセットと標準チャネル・サウンドによるWiFi機器の屋内位置推定について検討する。
本稿では、異なるアンテナで受信されたWiFiサブキャリアに対応するチャネル状態情報から特徴を抽出する、新しい浅層ニューラルネットワーク(SNN)を提案する。
論文 参考訳(メタデータ) (2020-10-16T22:48:29Z) - Evolving Multi-Resolution Pooling CNN for Monaural Singing Voice
Separation [40.170868770930774]
モナウラル歌声分離(MSVS)は難しい課題であり、何十年も研究されてきた。
ディープニューラルネットワーク(Deep Neural Network, DNN)は、MSVSの最先端の手法である。
ニューラルアーキテクチャサーチ(NAS)手法をMSVS用DNNの構造設計に適用する。
論文 参考訳(メタデータ) (2020-08-03T12:09:42Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。