論文の概要: Novel Fine-Tuned Attribute Weighted Na\"ive Bayes NLoS Classifier for
UWB Positioning
- arxiv url: http://arxiv.org/abs/2304.11067v1
- Date: Fri, 14 Apr 2023 09:59:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 08:06:19.810820
- Title: Novel Fine-Tuned Attribute Weighted Na\"ive Bayes NLoS Classifier for
UWB Positioning
- Title(参考訳): UWB位置決めのための新しい微調整属性重み付きNa\"ive Bayes NLoS分類器
- Authors: Fuhu Che, Qasim Zeeshan Ahmed, Fahd Ahmed Khan, and Faheem A. Khan
- Abstract要約: 室内位置決めシステム(IPS)におけるLine-of-Sight(LoS)信号とNon-in-of-Sight(NLoS)信号を特定するために、FT-WNB(Fine-Tuned attribute Weighted Na'ive Bayes)を提案する。
FT-WNB分類器は、各信号に特定の重みを割り当て、予測されたクラスと実際のクラスのミスマッチに対処する確率を微調整する。
- 参考スコア(独自算出の注目度): 0.6299766708197881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a novel Fine-Tuned attribute Weighted Na\"ive Bayes
(FT-WNB) classifier to identify the Line-of-Sight (LoS) and Non-Line-of-Sight
(NLoS) for UltraWide Bandwidth (UWB) signals in an Indoor Positioning System
(IPS). The FT-WNB classifier assigns each signal feature a specific weight and
fine-tunes its probabilities to address the mismatch between the predicted and
actual class. The performance of the FT-WNB classifier is compared with the
state-of-the-art Machine Learning (ML) classifiers such as minimum Redundancy
Maximum Relevance (mRMR)- $k$-Nearest Neighbour (KNN), Support Vector Machine
(SVM), Decision Tree (DT), Na\"ive Bayes (NB), and Neural Network (NN). It is
demonstrated that the proposed classifier outperforms other algorithms by
achieving a high NLoS classification accuracy of $99.7\%$ with imbalanced data
and $99.8\%$ with balanced data. The experimental results indicate that our
proposed FT-WNB classifier significantly outperforms the existing
state-of-the-art ML methods for LoS and NLoS signals in IPS in the considered
scenario.
- Abstract(参考訳): 本稿では,UWB(UltraWide Bandwidth)信号のLine-of-Sight(LoS)とNon-in-of-Sight(NLoS)を特定するために,FT-WNB(Final-Tuned attribute Weighted Na\"ive Bayes)分類器を提案する。
FT-WNB分類器は、各信号に特定の重みを割り当て、予測されたクラスと実際のクラスのミスマッチに対処する確率を微調整する。
FT-WNB分類器の性能は、最小冗長最大値(mRMR)-$k$-Nearest Neighbour(KNN)、サポートベクタマシン(SVM)、決定木(DT)、ナシブベイズ(NB)、ニューラルネットワーク(NN)などの最先端機械学習(ML)分類器と比較される。
提案手法は,不均衡データで99.7\%$,平衡データで99.8\%$という高いnlos分類精度を達成することで,他のアルゴリズムよりも優れることを示す。
実験結果から,提案するFT-WNB分類器は,検討シナリオにおいて,既存のLoS信号とNLoS信号のML手法よりも優れていることがわかった。
関連論文リスト
- Exact Certification of (Graph) Neural Networks Against Label Poisoning [50.87615167799367]
機械学習モデルはラベルのフリップ(ラベルのフリップ)に弱い。
サンプルと集合証明書の両方を抽出し,正確な認証手法を提案する。
私たちの研究は、ニューラルネットワークによって引き起こされた毒殺攻撃に対する最初の正確な証明書を提示しました。
論文 参考訳(メタデータ) (2024-11-30T17:05:12Z) - Role of Locality and Weight Sharing in Image-Based Tasks: A Sample Complexity Separation between CNNs, LCNs, and FCNs [42.551773746803946]
視覚タスクは局所性と翻訳不変性の特性によって特徴づけられる。
これらのタスクにおける畳み込みニューラルネットワーク(CNN)の優れた性能は、そのアーキテクチャに埋め込まれた局所性や重み付けの帰納的バイアスに起因する。
CNNにおけるこれらのバイアスの統計的利点を、局所連結ニューラルネットワーク(LCN)と完全連結ニューラルネットワーク(FCN)で定量化しようとする試みは、以下のカテゴリに分類される。
論文 参考訳(メタデータ) (2024-03-23T03:57:28Z) - Class-Balanced and Reinforced Active Learning on Graphs [13.239043161351482]
グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類など、さまざまなアプリケーションで大きな成功を収めている。
GNNのアクティブラーニングは、ラベルのないデータから貴重なサンプルを照会して、GNNのパフォーマンスを低コストで最大化することを目的としている。
GNNにおける強化能動学習のための既存のアルゴリズムは、特に高度に歪んだクラスシナリオにおいて、高度に不均衡なクラス分布をもたらす可能性がある。
我々は、GNNのための新しいクラスバランスと強化されたアクティブラーニングフレームワーク、すなわちGCBRを提案し、クラスバランスと情報ノードを取得するための最適なポリシーを学習する。
論文 参考訳(メタデータ) (2024-02-15T16:37:14Z) - Feature-Based Generalized Gaussian Distribution Method for NLoS
Detection in Ultra-Wideband (UWB) Indoor Positioning System [3.5522191686718725]
非Line-of-Sight(NLoS)伝搬条件は、UWB(Ultra-Wideband)屋内位置決めシステム(IPS)における位置決めの精度に影響を与える重要な要因である
データベースが少数のNLoS信号と多数のLine-of-Sight信号を含む場合、既存の機械学習アプローチでは高い分類精度を維持することは困難である。
特徴量に基づくガウス分布(GD)と一般化ガウス分布(GGD)NLoS検出アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-14T11:51:12Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Self-Distribution Binary Neural Networks [18.69165083747967]
重みとアクティベーションの両方がバイナリ(すなわち1ビット表現)である2進ニューラルネットワーク(BNN)について研究する。
SD-BNN(Self-Distribution Biinary Neural Network)を提案する。
CIFAR-10とImageNetデータセットの実験では、提案されたSD-BNNは、最先端(SOTA)BNNよりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-03-03T13:39:52Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z) - Distributionally Robust Weighted $k$-Nearest Neighbors [21.537952410507483]
少数のサンプルから堅牢な分類器を学ぶことは、マシンラーニングにおける重要な課題である。
本稿では, 重み付き$k$-アネレスト近傍のミニマックス分布に頑健な定式化について検討する。
我々は,この関数最適化問題を効率的に解くアルゴリズムである textttDr.k-NN を開発した。
論文 参考訳(メタデータ) (2020-06-07T00:34:33Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。