論文の概要: Tighter Bound Estimation of Sensitivity Analysis for Incremental and
Decremental Data Modification
- arxiv url: http://arxiv.org/abs/2003.03351v4
- Date: Wed, 13 Jan 2021 23:26:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 00:54:55.986755
- Title: Tighter Bound Estimation of Sensitivity Analysis for Incremental and
Decremental Data Modification
- Title(参考訳): インクリメンタルおよびデクリメントデータ修正のための感度解析のより厳密な境界推定
- Authors: Kaichen Zhou, Shiji Song, Gao Huang, Wu Cheng, Quan Zhou
- Abstract要約: 大規模な分類問題では、データの一部が元のデータセットに追加または削除された場合、データセットは常に頻繁な更新に直面する。
本稿では, 線形分類器を正確に更新することなく, 線形分類器について合理的な推論を行うアルゴリズムを提案する。
理論的解析と実験の結果から,提案手法は係数境界の厳密性や計算複雑性の観点から既存手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 39.62854914952284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In large-scale classification problems, the data set always be faced with
frequent updates when a part of the data is added to or removed from the
original data set. In this case, conventional incremental learning, which
updates an existing classifier by explicitly modeling the data modification, is
more efficient than retraining a new classifier from scratch. However,
sometimes, we are more interested in determining whether we should update the
classifier or performing some sensitivity analysis tasks. To deal with these
such tasks, we propose an algorithm to make rational inferences about the
updated linear classifier without exactly updating the classifier.
Specifically, the proposed algorithm can be used to estimate the upper and
lower bounds of the updated classifier's coefficient matrix with a low
computational complexity related to the size of the updated dataset. Both
theoretical analysis and experiment results show that the proposed approach is
superior to existing methods in terms of tightness of coefficients' bounds and
computational complexity.
- Abstract(参考訳): 大規模な分類問題では、データの一部が元のデータセットに追加または削除された場合、データセットは常に頻繁な更新に直面する。
この場合、既存の分類器を明示的にモデル化して更新する従来のインクリメンタル学習は、新しい分類器をスクラッチから再トレーニングするよりも効率的である。
しかしながら、分類器を更新すべきか、あるいは感度分析タスクを実行するべきかを決定することに関心がある場合もあります。
このようなタスクに対処するため,線形分類器を正確に更新することなく,線形分類器について合理的な推論を行うアルゴリズムを提案する。
具体的には,更新された分類器の係数行列の上および下限を,更新されたデータセットのサイズに関連する計算量の低い計算量で推定する手法を提案する。
理論的解析と実験の結果から,提案手法は係数境界の厳密性や計算複雑性の観点から既存手法よりも優れていることが示された。
関連論文リスト
- Online Nonparametric Supervised Learning for Massive Data [0.0]
本研究では,非パラメトリック分類器を大規模にリアルタイムに計算する高速アルゴリズムと,ストリーミングデータフレームワークを開発した。
提案手法は、リアルタイムな胎児の健康モニタリングによく使用される機械学習アルゴリズムと比較して評価・比較する。
論文 参考訳(メタデータ) (2024-05-29T20:04:23Z) - An Efficient Algorithm for Clustered Multi-Task Compressive Sensing [60.70532293880842]
クラスタ化マルチタスク圧縮センシングは、複数の圧縮センシングタスクを解決する階層モデルである。
このモデルに対する既存の推論アルゴリズムは計算コストが高く、高次元ではうまくスケールしない。
本稿では,これらの共分散行列を明示的に計算する必要をなくし,モデル推論を大幅に高速化するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-09-30T15:57:14Z) - Nonlinear Feature Aggregation: Two Algorithms driven by Theory [45.3190496371625]
現実世界の機械学習アプリケーションは、膨大な機能によって特徴付けられ、計算やメモリの問題を引き起こす。
一般集約関数を用いて特徴量の非線形変換を集約する次元還元アルゴリズム(NonLinCFA)を提案する。
また、アルゴリズムを合成および実世界のデータセット上でテストし、回帰および分類タスクを実行し、競合性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:57:33Z) - Dataset Complexity Assessment Based on Cumulative Maximum Scaled Area
Under Laplacian Spectrum [38.65823547986758]
DCNNモデルをトレーニングする前にデータセットの複雑さを効果的に評価することで分類性能を予測することが重要である。
本稿では,ラプラシアンスペクトル(cmsAULS)の下での累積最大スケール領域という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-29T13:02:04Z) - Autoencoder Based Iterative Modeling and Multivariate Time-Series
Subsequence Clustering Algorithm [0.0]
本稿では、過渡時系列データ(MTSD)における変化点の検出と対応する部分列の同定のためのアルゴリズムを提案する。
我々は、リカレントニューラルネットワーク(RNN)ベースのオートエンコーダ(AE)を用いて、入ってくるデータに基づいて反復的に訓練する。
同定されたサブシーケンスのモデルを保存し、繰り返しサブシーケンスの認識と高速オフラインクラスタリングに使用する。
論文 参考訳(メタデータ) (2022-09-09T09:59:56Z) - COSTI: a New Classifier for Sequences of Temporal Intervals [0.0]
時間間隔のシーケンスを直接操作する新しい分類法を開発した。
提案手法は高い精度を保ち、変換データの操作に接続する欠点を回避しつつ、より良い性能が得られる。
論文 参考訳(メタデータ) (2022-04-28T12:55:06Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Real-Time Regression with Dividing Local Gaussian Processes [62.01822866877782]
局所ガウス過程は、ガウス過程の回帰に基づく新しい、計算効率の良いモデリング手法である。
入力空間の反復的データ駆動分割により、実際にはトレーニングポイントの総数において、サブ線形計算複雑性が達成される。
実世界のデータセットに対する数値的な評価は、予測と更新の速度だけでなく、精度の点で他の最先端手法よりも有利であることを示している。
論文 参考訳(メタデータ) (2020-06-16T18:43:31Z) - Progressive Identification of True Labels for Partial-Label Learning [112.94467491335611]
部分ラベル学習(Partial-label Learning, PLL)は、典型的な弱教師付き学習問題であり、各トレーニングインスタンスには、真のラベルである候補ラベルのセットが設けられている。
既存のほとんどの手法は、特定の方法で解決しなければならない制約付き最適化として精巧に設計されており、計算複雑性をビッグデータにスケールアップするボトルネックにしている。
本稿では,モデルと最適化アルゴリズムの柔軟性を備えた分類器の新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T08:35:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。