論文の概要: Smartphone Transportation Mode Recognition Using a Hierarchical Machine
Learning Classifier and Pooled Features From Time and Frequency Domains
- arxiv url: http://arxiv.org/abs/2006.06945v1
- Date: Fri, 12 Jun 2020 04:56:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 03:24:47.772415
- Title: Smartphone Transportation Mode Recognition Using a Hierarchical Machine
Learning Classifier and Pooled Features From Time and Frequency Domains
- Title(参考訳): 階層型機械学習分類器を用いたスマートフォン交通モード認識と時間領域と周波数領域からのプーリング特徴
- Authors: Huthaifa I. Ashqar, Mohammed H. Almannaa, Mohammed Elhenawy, Hesham A.
Rakha, and Leanna House
- Abstract要約: 本稿では,新しい階層型階層型分類器を開発する。
従来の輸送モード分類アルゴリズムの精度を高める。
また、新しい周波数領域の特徴を抽出することで分類精度を向上させる。
- 参考スコア(独自算出の注目度): 14.180215313988176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper develops a novel two-layer hierarchical classifier that increases
the accuracy of traditional transportation mode classification algorithms. This
paper also enhances classification accuracy by extracting new frequency domain
features. Many researchers have obtained these features from global positioning
system data; however, this data was excluded in this paper, as the system use
might deplete the smartphone's battery and signals may be lost in some areas.
Our proposed two-layer framework differs from previous classification attempts
in three distinct ways: 1) the outputs of the two layers are combined using
Bayes' rule to choose the transportation mode with the largest posterior
probability; 2) the proposed framework combines the new extracted features with
traditionally used time domain features to create a pool of features; and 3) a
different subset of extracted features is used in each layer based on the
classified modes. Several machine learning techniques were used, including
k-nearest neighbor, classification and regression tree, support vector machine,
random forest, and a heterogeneous framework of random forest and support
vector machine. Results show that the classification accuracy of the proposed
framework outperforms traditional approaches. Transforming the time domain
features to the frequency domain also adds new features in a new space and
provides more control on the loss of information. Consequently, combining the
time domain and the frequency domain features in a large pool and then choosing
the best subset results in higher accuracy than using either domain alone. The
proposed two-layer classifier obtained a maximum classification accuracy of
97.02%.
- Abstract(参考訳): 本稿では,従来の移動モード分類アルゴリズムの精度を高める2層階層型階層分類器を提案する。
また,新しい周波数領域の特徴を抽出することで分類精度を向上させる。
多くの研究者がグローバル測位システムデータからこれらの特徴を得たが、このデータは、システムの使用によってスマートフォンのバッテリーが枯渇し、一部の地域では信号が失われる可能性があるため、本論文では除外された。
提案する2層フレームワークは,従来の分類手法と3つの異なる方法で異なる。
1) 2つの層の出力は,ベイズの法則を用いて組み合わせて,最大後方確率の輸送モードを選択する。
2)提案フレームワークでは,新たな抽出機能と従来の時間領域機能を組み合わせて,機能プールを作成する。
3) 分類モードに基づいて抽出した特徴の異なるサブセットを各層で使用する。
k-nearest近傍、分類と回帰ツリー、サポートベクターマシン、ランダムフォレスト、ランダムフォレストとサポートベクターマシンの異種フレームワークなど、いくつかの機械学習技術が使用された。
その結果,提案手法の分類精度は従来の手法よりも優れていた。
時間領域の機能を周波数領域に変換する また、新しい空間に新たな機能を追加し、情報の損失をより制御する。
従って、時間領域と周波数領域を大きなプールで組み合わせ、最適なサブセットを選択することで、どちらのドメインのみを使うよりも高い精度が得られる。
提案する2層分類器は最大分類精度97.02%を得た。
関連論文リスト
- Audio Classification of Low Feature Spectrograms Utilizing Convolutional Neural Networks [0.0]
本稿では,データ分布の低い音声スペクトログラムを解析するための機械学習手法をいくつか提案する。
特に,二分法,一級法,シムズ法を用いて特徴を抽出する新しい畳み込みアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-10-28T21:48:57Z) - Multiple Contexts and Frequencies Aggregation Network forDeepfake Detection [5.65128683992597]
ディープフェイク検出は、大量で多様なディープフェイク技術の開発において、生成モデルの急速な成長以来、課題に直面している。
近年の進歩は、バックボーン内の一般的な偽造特徴をモデル化するのではなく、空間領域や周波数領域からの特徴の導入に依存している。
2つのコアモジュールからなるMkfaNetという顔偽造検出のための効率的なネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-03T05:34:53Z) - Improving Primate Sounds Classification using Binary Presorting for Deep
Learning [6.044912425856236]
本稿では,MELスペクトル表現のサブセグメンテーションを初めてリラベルする一般化アプローチを提案する。
バイナリプリソートと分類の両方において、畳み込みニューラルネットワーク(CNN)と様々なデータ拡張技術を利用する。
本研究は,異なる霊長類種の音の分類を課題とする,挑戦的なTextitComparE 2021データセットについて,本手法の結果を紹介する。
論文 参考訳(メタデータ) (2023-06-28T09:35:09Z) - Learning Classifiers of Prototypes and Reciprocal Points for Universal
Domain Adaptation [79.62038105814658]
Universal Domainは、ドメインシフトとカテゴリシフトという2つのシフトを処理して、データセット間で知識を転送することを目的としている。
主な課題は、既知のクラス知識の分布をソースからターゲットに適応させながら、未知のターゲットサンプルを正しく識別することである。
既存のほとんどの手法は、まずターゲットが適応した既知の知識を訓練し、次に未知のターゲットサンプルを識別するために単一のしきい値に依存することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-16T09:01:57Z) - Anomalous Sound Detection Using a Binary Classification Model and Class
Centroids [47.856367556856554]
本稿では, 正規データだけでなく, 他領域の外部データも擬似アノマラス音響データとして用いた二分分類モデルを提案する。
また,2値分類モデルをさらに改善するために,異常音データの追加の有効性についても検討した。
論文 参考訳(メタデータ) (2021-06-11T03:35:06Z) - Conditional Variational Capsule Network for Open Set Recognition [64.18600886936557]
オープンセット認識では、分類器はトレーニング時に未知の未知のクラスを検出する必要がある。
最近提案されたカプセルネットワークは、特に画像認識において、多くの分野で代替案を上回ることが示されている。
本提案では,訓練中,同じ既知のクラスのカプセルの特徴を,事前に定義されたガウス型に適合させることを推奨する。
論文 参考訳(メタデータ) (2021-04-19T09:39:30Z) - Divergence Optimization for Noisy Universal Domain Adaptation [32.05829135903389]
ユニバーサルドメイン適応(UniDA)は、ラベルリッチソースドメインから学んだ知識をラベルスカースターゲットドメインに転送するために提案されている。
本稿では,すべての問題を同時に解決する2ヘッド畳み込みニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-01T04:16:04Z) - Capturing scattered discriminative information using a deep architecture
in acoustic scene classification [49.86640645460706]
本研究では,識別情報を捕捉し,同時に過度に適合する問題を緩和する様々な手法について検討する。
我々は、ディープニューラルネットワークにおける従来の非線形アクティベーションを置き換えるために、Max Feature Map法を採用する。
2つのデータ拡張方法と2つの深いアーキテクチャモジュールは、システムの過度な適合を減らし、差別的なパワーを維持するためにさらに検討されている。
論文 参考訳(メタデータ) (2020-07-09T08:32:06Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - Selecting Relevant Features from a Multi-domain Representation for
Few-shot Classification [91.67977602992657]
本稿では,従来の特徴適応手法よりもシンプルかつ効果的である特徴選択に基づく新しい戦略を提案する。
このような特徴の上に構築された単純な非パラメトリック分類器は高い精度を示し、訓練中に見たことのない領域に一般化する。
論文 参考訳(メタデータ) (2020-03-20T15:44:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。