論文の概要: Evaluating k-NN in the Classification of Data Streams with Concept Drift
- arxiv url: http://arxiv.org/abs/2210.03119v1
- Date: Thu, 6 Oct 2022 00:17:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:07:42.179967
- Title: Evaluating k-NN in the Classification of Data Streams with Concept Drift
- Title(参考訳): 概念ドリフトを用いたデータストリーム分類におけるk-NNの評価
- Authors: Roberto Souto Maior de Barros, Silas Garrido Teixeira de Carvalho
Santos, Jean Paul Barddal
- Abstract要約: 本稿では,概念ドリフトを受けるデータストリームの分類候補として,k-Nearest Neighbors (k-NN) の詳細な評価を提案する。
また、k-NNの時間的複雑さと2つの主要なパラメータを分析する。
k-NNは、特に実行時の制約があまり制限されない場合、データストリームの分類にふさわしい候補である、と結論付けている。
- 参考スコア(独自算出の注目度): 5.175820915750461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data streams are often defined as large amounts of data flowing continuously
at high speed. Moreover, these data are likely subject to changes in data
distribution, known as concept drift. Given all the reasons mentioned above,
learning from streams is often online and under restrictions of memory
consumption and run-time. Although many classification algorithms exist, most
of the works published in the area use Naive Bayes (NB) and Hoeffding Trees
(HT) as base learners in their experiments. This article proposes an in-depth
evaluation of k-Nearest Neighbors (k-NN) as a candidate for classifying data
streams subjected to concept drift. It also analyses the complexity in time and
the two main parameters of k-NN, i.e., the number of nearest neighbors used for
predictions (k), and window size (w). We compare different parameter values for
k-NN and contrast it to NB and HT both with and without a drift detector (RDDM)
in many datasets. We formulated and answered 10 research questions which led to
the conclusion that k-NN is a worthy candidate for data stream classification,
especially when the run-time constraint is not too restrictive.
- Abstract(参考訳): データストリームはしばしば、高速で連続的に流れる大量のデータとして定義される。
さらに、これらのデータは、概念ドリフト(concept drift)として知られるデータ分散の変化の影響を受けやすい。
上述のすべての理由から、ストリームからの学習は、しばしばオンラインであり、メモリ消費と実行時間の制限下にある。
多くの分類アルゴリズムが存在するが、この領域で出版された作品の多くは、実験のベースラーナーとしてネイブベイズ(NB)とホーフディングツリー(HT)を使用している。
本稿では,k-nearest neighbors (k-nn) を概念ドリフトの対象とするデータストリームの分類候補として深く評価する。
また、時間の複雑さと、k-nnの2つの主要なパラメータ、すなわち、予測に使用される最寄りの近傍の数(k)とウィンドウサイズ(w)を分析する。
我々はk-NNのパラメータ値を比較し、多くのデータセットのドリフト検出器(RDDM)とNBとHTを比較した。
我々は、k-NNがデータストリーム分類にふさわしい候補である、特にランタイム制約があまり制限されない場合に、10の研究質問を定式化し、回答した。
関連論文リスト
- Deep Neural Networks Tend To Extrapolate Predictably [51.303814412294514]
ニューラルネットワークの予測は、アウト・オブ・ディストリビューション(OOD)入力に直面した場合、予測不可能で過信される傾向がある。
我々は、入力データがOODになるにつれて、ニューラルネットワークの予測が一定値に向かう傾向があることを観察する。
我々は、OOD入力の存在下でリスクに敏感な意思決定を可能にするために、私たちの洞察を実際に活用する方法を示します。
論文 参考訳(メタデータ) (2023-10-02T03:25:32Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Empirical Analysis of Limits for Memory Distance in Recurrent Neural
Networks [10.09712608508383]
我々は、RNNが標準的なバックプロパゲーションを用いてそれらを記憶することで、いくつかのデータポイントをシーケンスに戻すことができることを示す。
古典的なRNNでは、LSTMとGRUは、この方法で再現できる再帰呼び出し間のデータポイントの距離が極めて限られている。
論文 参考訳(メタデータ) (2022-12-20T08:20:48Z) - DiverGet: A Search-Based Software Testing Approach for Deep Neural
Network Quantization Assessment [10.18462284491991]
量子化は、最も応用されたディープニューラルネットワーク(DNN)圧縮戦略の1つである。
量子化評価のための検索ベースのテストフレームワークであるDiverGetを提案する。
ハイパースペクトルリモートセンシング画像に適用した最先端DNNにおけるDiverGetの性能評価を行った。
論文 参考訳(メタデータ) (2022-07-13T15:27:51Z) - Reducing Flipping Errors in Deep Neural Networks [39.24451665215755]
ディープニューラルネットワーク(DNN)は、人工知能の様々な領域に広く応用されている。
本報告では,DNNが最終時代において誤って分類した検体(未確認検体)が,どの程度の精度で正しく分類されたかについて検討する。
本稿では, DNN の動作変化を, 適切な局所境界を維持するために, 正しく分類されたサンプル上での動作変化を制限することを提案する。
論文 参考訳(メタデータ) (2022-03-16T04:38:06Z) - Deep Neural Networks for Approximating Stream Reasoning with C-SPARQL [0.8677532138573983]
C-SPARQLはRDFデータのストリーム上の連続的なクエリのための言語である。
本稿では,C-SPARQLを用いた推論を,リカレントニューラルネットワークと畳み込みニューラルネットワークを用いて近似できるかどうかを検討する。
論文 参考訳(メタデータ) (2021-06-15T21:51:47Z) - Estimating Traffic Speeds using Probe Data: A Deep Neural Network
Approach [1.5469452301122177]
本稿では,sparseデータに基づく高速道路の時空トラヒック速度を再現する,専用ディープニューラルネットワークアーキテクチャを提案する。
2ヶ月の間にドイツ高速道路A9で収集された大規模な浮動小数点データ(FCD)を利用する。
以上の結果から,DNNは学習パターンを適用でき,静止渋滞だけでなく移動パターンを高精度に再構築できることがわかった。
論文 参考訳(メタデータ) (2021-04-19T23:32:12Z) - Temporal Calibrated Regularization for Robust Noisy Label Learning [60.90967240168525]
ディープニューラルネットワーク(DNN)は、大規模な注釈付きデータセットの助けを借りて、多くのタスクで大きな成功を収めている。
しかし、大規模なデータのラベル付けは非常にコストがかかりエラーが発生しやすいため、アノテーションの品質を保証することは困難である。
本稿では,従来のラベルと予測を併用したTCR(Temporal Calibrated Regularization)を提案する。
論文 参考訳(メタデータ) (2020-07-01T04:48:49Z) - Modeling Personalized Item Frequency Information for Next-basket
Recommendation [63.94555438898309]
次世代レコメンデーション(NBR)は、電子商取引や小売業界で一般的である。
既存のRNNでは,レコメンデーションシナリオにおいて,アイテムの周波数情報を直接キャプチャすることはできない。
我々はこれらの臨界信号を直接利用する簡単なアイテム周波数に基づくk-nearest neighbors (kNN)法を提案する。
論文 参考訳(メタデータ) (2020-05-31T16:42:39Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。