論文の概要: A Neural Network Approach for Online Nonlinear Neyman-Pearson
Classification
- arxiv url: http://arxiv.org/abs/2006.08001v2
- Date: Sun, 30 Aug 2020 12:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 10:11:03.886860
- Title: A Neural Network Approach for Online Nonlinear Neyman-Pearson
Classification
- Title(参考訳): オンライン非線形Neyman-Pearson分類のためのニューラルネットワークアプローチ
- Authors: Basarbatu Can, Huseyin Ozkan
- Abstract要約: 論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。
提案する分類器は、オンライン方式でバイナリラベル付きデータストリーム上で動作し、ユーザが指定し、制御可能な偽陽性率の検出能力を最大化する。
提案アルゴリズムは大規模データアプリケーションに適しており,実時間処理による偽陽性率制御性を実現している。
- 参考スコア(独自算出の注目度): 3.6144103736375857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel Neyman-Pearson (NP) classifier that is both online and
nonlinear as the first time in the literature. The proposed classifier operates
on a binary labeled data stream in an online manner, and maximizes the
detection power about a user-specified and controllable false positive rate.
Our NP classifier is a single hidden layer feedforward neural network (SLFN),
which is initialized with random Fourier features (RFFs) to construct the
kernel space of the radial basis function at its hidden layer with sinusoidal
activation. Not only does this use of RFFs provide an excellent initialization
with great nonlinear modeling capability, but it also exponentially reduces the
parameter complexity and compactifies the network to mitigate overfitting while
improving the processing efficiency substantially. We sequentially learn the
SLFN with stochastic gradient descent updates based on a Lagrangian NP
objective. As a result, we obtain an expedited online adaptation and powerful
nonlinear Neyman-Pearson modeling. Our algorithm is appropriate for large scale
data applications and provides a decent false positive rate controllability
with real time processing since it only has O(N) computational and O(1) space
complexity (N: number of data instances). In our extensive set of experiments
on several real datasets, our algorithm is highly superior over the competing
state-of-the-art techniques, either by outperforming in terms of the NP
classification objective with a comparable computational as well as space
complexity or by achieving a comparable performance with significantly lower
complexity.
- Abstract(参考訳): 論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。
提案する分類器は、オンライン形式でバイナリラベル付きデータストリーム上で動作し、ユーザ特定かつ制御可能な偽陽性率の検出能力を最大化する。
我々のNP分類器は単一の隠れ層フィードフォワードニューラルネットワーク(SLFN)であり、これはランダムフーリエ特徴(RFF)で初期化され、正弦波活性化を伴う隠れ層における放射基底関数のカーネル空間を構築する。
このrffの使用は、優れた非線形モデリング能力を持つ優れた初期化を提供するだけでなく、パラメータの複雑さを指数関数的に減少させ、ネットワークをコンパクト化し、処理効率を大幅に向上させる。
ラグランジアンNPの目的に基づいて,確率勾配降下更新を用いてSLFNを逐次学習する。
その結果、高速なオンライン適応と強力な非線形Neyman-Pearsonモデリングが得られる。
本アルゴリズムは大規模データ応用に適しており,o(n)計算量とo(1)空間複雑性(n:データインスタンス数)しか持たないため,リアルタイム処理による適正な偽陽性率制御性を提供する。
いくつかの実データ集合に関する広範な実験では、np分類の目的と同等の計算量と空間の複雑さ、あるいはより低い複雑性で同等のパフォーマンスを達成することによって、アルゴリズムは競合する最先端技術よりも優れている。
関連論文リスト
- FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - CDiNN -Convex Difference Neural Networks [0.8122270502556374]
reluアクティベーション関数を持つニューラルネットワークは、普遍関数近似が非スムース関数として関数マッピングを学ぶことが示されている。
ICNNと呼ばれる新しいニューラルネットワークアーキテクチャは、凸入力として出力を学習する。
論文 参考訳(メタデータ) (2021-03-31T17:31:16Z) - Message Passing Descent for Efficient Machine Learning [4.416484585765027]
機械学習におけるbfデータフィッティング(DF)問題に対する反復最適化手法を提案する。
このアプローチは、df問題のbfグラフィカルモデル表現に依存している。
本稿では,モデルDF関数の多項式表現に依存する bf Message Passage Descent アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-16T12:22:54Z) - Online Limited Memory Neural-Linear Bandits with Likelihood Matching [53.18698496031658]
本研究では,探索学習と表現学習の両方が重要な役割を果たす課題を解決するために,ニューラルネットワークの帯域について検討する。
破滅的な忘れ込みに対して耐性があり、完全にオンラインである可能性の高いマッチングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-07T14:19:07Z) - An Online Learning Algorithm for a Neuro-Fuzzy Classifier with
Mixed-Attribute Data [9.061408029414455]
General Fuzzy min-max Neural Network (GFMMNN) は、データ分類のための効率的な神経ファジィシステムの一つである。
本稿ではGFMMNNのための拡張オンライン学習アルゴリズムを提案する。
提案手法は連続的特徴と分類的特徴の両方でデータセットを処理できる。
論文 参考訳(メタデータ) (2020-09-30T13:45:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。