論文の概要: Touch Analysis: An Empirical Evaluation of Machine Learning
Classification Algorithms on Touch Data
- arxiv url: http://arxiv.org/abs/2311.14195v1
- Date: Thu, 23 Nov 2023 20:31:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-27 16:29:12.527998
- Title: Touch Analysis: An Empirical Evaluation of Machine Learning
Classification Algorithms on Touch Data
- Title(参考訳): タッチ分析:タッチデータを用いた機械学習分類アルゴリズムの実証的評価
- Authors: Melodee Montgomery, Prosenjit Chatterjee, John Jenkins, and Kaushik
Roy
- Abstract要約: 個人を正しく分類するための新しいDeep Neural Net(DNN)アーキテクチャを提案する。
新機能と既存の機能を組み合わせると、SVMとkNNはそれぞれ94.7%と94.6%の分類精度を達成した。
- 参考スコア(独自算出の注目度): 7.018254711671888
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our research aims at classifying individuals based on their unique
interactions on touchscreen-based smartphones. In this research, we use
Touch-Analytics datasets, which include 41 subjects and 30 different behavioral
features. Furthermore, we derived new features from the raw data to improve the
overall authentication performance. Previous research has already been done on
the Touch-Analytics datasets with the state-of-the-art classifiers, including
Support Vector Machine (SVM) and k-nearest neighbor (kNN), and achieved equal
error rates (EERs) between 0% to 4%. Here, we propose a novel Deep Neural Net
(DNN) architecture to classify the individuals correctly. The proposed DNN
architecture has three dense layers and uses many-to-many mapping techniques.
When we combine the new features with the existing ones, SVM and kNN achieved
the classification accuracy of 94.7% and 94.6%, respectively. This research
explored seven other classifiers and out of them, the decision tree and our
proposed DNN classifiers resulted in the highest accuracy of 100%. The others
included: Logistic Regression (LR), Linear Discriminant Analysis (LDA),
Gaussian Naive Bayes (NB), Neural Network, and VGGNet with the following
accuracy scores of 94.7%, 95.9%, 31.9%, 88.8%, and 96.1%, respectively.
- Abstract(参考訳): 本研究の目的は、タッチスクリーンベースのスマートフォン上でのユニークなインタラクションに基づいて個人を分類することである。
本研究では、41の被験者と30の異なる行動特徴を含むTouch-Analyticsデータセットを使用する。
さらに,全認証性能を向上させるために,生データから新機能を導出した。
Touch-Analyticsデータセットには、SVM(Support Vector Machine)やk-nearest neighbor(kNN)など、最先端の分類器が組み込まれており、エラーレート(EER)は0%から4%である。
本稿では、個人を正しく分類するための新しいDeep Neural Net(DNN)アーキテクチャを提案する。
提案するdnnアーキテクチャは、3つの密集層を持ち、多対多マッピング技術を用いる。
新機能と既存の機能を組み合わせると、SVMとkNNはそれぞれ94.7%と94.6%の分類精度を達成した。
本研究は,他の7つの分類器を探索し,その内,決定木と提案したDNN分類器の精度を100%とした。
その他、ロジスティック回帰(lr)、線形判別分析(lda)、ガウス的ナイーブベイズ(nb)、ニューラルネットワーク、およびvggnetはそれぞれ94.7%、95.9%、31.9%、88.8%、96.1%である。
関連論文リスト
- Investigating Weight-Perturbed Deep Neural Networks With Application in
Iris Presentation Attack Detection [11.209470024746683]
重みとバイアスパラメータに対する摂動に対するディープニューラルネットワークの感度を評価する。
トレーニングを行なわずに、ネットワークのパラメータを摂動させることで、改良されたモデルを提案する。
パラメータレベルのアンサンブルは、LivDet-Iris-2017データセットで43.58%、LivDet-Iris-2020データセットで9.25%の平均的な改善を示している。
論文 参考訳(メタデータ) (2023-11-21T18:18:50Z) - Yin Yang Convolutional Nets: Image Manifold Extraction by the Analysis
of Opposites [1.1560177966221703]
Yin Yang Convolutional Networkは、視覚多様体を抽出するアーキテクチャである。
最初のモデルでは、テスト精度93.32%に達し、このカテゴリーでは古いSOTAよりも0.8%高かった。
ImageNetでも分析を行い、1.6Mパラメータで66.49%の精度で検証しました。
論文 参考訳(メタデータ) (2023-10-24T19:48:07Z) - Faster and Accurate Neural Networks with Semantic Inference [9.372908891132772]
我々は、潜在表現における固有の冗長性を利用して、性能の低下に制限された計算負荷を削減する。
セマンティック推論(SINF)と呼ばれる新しいフレームワークは、オブジェクトが属するセマンティッククラスタを特定し、推論のためにそのセマンティッククラスタから抽出されたサブグラフを実行する。
識別能力スコア(DCS)と呼ばれる新しいアプローチでは、特定のセマンティッククラスタのメンバー間で識別可能なサブグラフを見つける。
論文 参考訳(メタデータ) (2023-10-02T14:51:10Z) - Exploring Learned Representations of Neural Networks with Principal
Component Analysis [1.0923877073891446]
ある層では、高い精度の分類には中間的特徴空間分散の20%しか必要としない。
本研究は神経崩壊と相関し, 中間神経崩壊の関連現象の部分的証拠を提供する。
論文 参考訳(メタデータ) (2023-09-27T00:18:25Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - One-Shot Learning for Periocular Recognition: Exploring the Effect of
Domain Adaptation and Data Bias on Deep Representations [59.17685450892182]
広範に使用されているCNNモデルにおける深部表現の挙動をワンショット近視認識のための極端データ不足下で検討する。
我々は、バイオメトリックデータセットで訓練されたネットワークを数百万の画像で活用し、最先端の結果を改善した。
SIFTのような従来のアルゴリズムは、限られたデータでCNNより優れている。
論文 参考訳(メタデータ) (2023-07-11T09:10:16Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Object recognition for robotics from tactile time series data utilising
different neural network architectures [0.0]
本稿では,コンボリューショナルニューラルネットワーク(CNN)とLong-Short Term Memory(LSTM)ニューラルネットワークアーキテクチャを用いて,触覚データに基づくオブジェクト分類を行う。
我々は,2種類の指先センサ(BioTac SPとWTS-FT)のデータを用いて,これらの手法を比較した。
提案手法は,全時系列データを用いた最大精度を82.4% (BioTac SP fingertips) と90.7% (WTS-FT fingertips) から約94% に改善した。
論文 参考訳(メタデータ) (2021-09-09T22:05:45Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。