論文の概要: Fast Sparse Classification for Generalized Linear and Additive Models
- arxiv url: http://arxiv.org/abs/2202.11389v1
- Date: Wed, 23 Feb 2022 10:07:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-24 14:25:17.495282
- Title: Fast Sparse Classification for Generalized Linear and Additive Models
- Title(参考訳): 一般化線形モデルと加算モデルの高速スパース分類
- Authors: Jiachang Liu, Chudi Zhong, Margo Seltzer, Cynthia Rudin
- Abstract要約: スパース一般化線形および加法モデルに対する高速分類手法を提案する。
これらの技術は、非常に相関性の高い特徴が存在する場合でも、何千もの特徴と何千もの観察を数分で処理することができる。
- 参考スコア(独自算出の注目度): 18.19521929966386
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present fast classification techniques for sparse generalized linear and
additive models. These techniques can handle thousands of features and
thousands of observations in minutes, even in the presence of many highly
correlated features. For fast sparse logistic regression, our computational
speed-up over other best-subset search techniques owes to linear and quadratic
surrogate cuts for the logistic loss that allow us to efficiently screen
features for elimination, as well as use of a priority queue that favors a more
uniform exploration of features. As an alternative to the logistic loss, we
propose the exponential loss, which permits an analytical solution to the line
search at each iteration. Our algorithms are generally 2 to 5 times faster than
previous approaches. They produce interpretable models that have accuracy
comparable to black box models on challenging datasets.
- Abstract(参考訳): スパース一般化線形および加法モデルに対する高速分類手法を提案する。
これらのテクニックは、何千もの機能と何千もの観察を数分で処理することができる。
高速でスパースなロジスティック回帰の場合、我々の計算速度アップは、他のベストサブセット検索技術よりも、ロジスティック損失のための線形および二次的なサロゲートカットによって、削除のために効率的に機能を表示できるだけでなく、より統一的な機能探索を好む優先順位キューの使用にかかっています。
ロジスティック損失の代替として,各イテレーションにおける線探索に対する解析解を許容する指数的損失を提案する。
私たちのアルゴリズムは一般的に、以前のアプローチの2倍から5倍高速です。
彼らは、挑戦的なデータセットのブラックボックスモデルに匹敵する精度の解釈可能なモデルを生成する。
関連論文リスト
- The Persian Rug: solving toy models of superposition using large-scale symmetries [0.0]
入力次元が大きければ最小限の非線形スパースデータオートエンコーダによって学習されたアルゴリズムの完全なメカニスティック記述を示す。
我々の研究は、オートエンコーダの構造を理解する技術を導入することによって、ニューラルネットワークの解釈可能性に貢献している。
論文 参考訳(メタデータ) (2024-10-15T22:52:45Z) - A Mirror Descent-Based Algorithm for Corruption-Tolerant Distributed Gradient Descent [57.64826450787237]
本研究では, 分散勾配降下アルゴリズムの挙動を, 敵対的腐敗の有無で解析する方法を示す。
汚職耐性の分散最適化アルゴリズムを設計するために、(怠慢な)ミラー降下からアイデアをどう使うかを示す。
MNISTデータセットの線形回帰、サポートベクトル分類、ソフトマックス分類に基づく実験は、我々の理論的知見を裏付けるものである。
論文 参考訳(メタデータ) (2024-07-19T08:29:12Z) - Fast Dual-Regularized Autoencoder for Sparse Biological Data [65.268245109828]
本研究では,近傍正規化行列補完問題に対する浅層オートエンコーダを開発する。
本研究は, 薬物と薬物の相互作用と薬物の放出関連性を予測する上で, 既存の最先端技術に対するアプローチの速度と精度の優位性を実証する。
論文 参考訳(メタデータ) (2024-01-30T01:28:48Z) - Inverse classification with logistic and softmax classifiers: efficient
optimization [6.581214715240991]
逆分類問題は、固定分類器を含む入力インスタンスベクトルに対する根本的な最適化問題である。
この最適化はロジスティック回帰のための閉形式で解くことができ、ソフトマックス分類器に対しては反復的ではあるが極めて高速であることを示す。
これにより、非常に高次元のインスタンスや多くのクラスであってもミリ秒から1秒程度のランタイムで、どちらのケースも正確に(ほぼ機械の精度で)解決できます。
論文 参考訳(メタデータ) (2023-09-16T10:34:40Z) - Best-Subset Selection in Generalized Linear Models: A Fast and
Consistent Algorithm via Splicing Technique [0.6338047104436422]
ベストサブセットセクションは、このタイプの問題の聖杯として広く見なされている。
軽度条件下での最適部分集合回復のためのアルゴリズムを提案し,提案した。
我々の実装は、一般的な変数選択ツールキットと比較して約4倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2023-08-01T03:11:31Z) - An efficient, provably exact, practical algorithm for the 0-1 loss
linear classification problem [4.418462313508022]
インクリメンタルセル(ICE)は,0-1損失分類問題を正確に時間内に解くことができることを示す。
この長年の問題に対する、厳格に証明された実用的なアルゴリズムとしては、これが初めてだ。
論文 参考訳(メタデータ) (2023-06-21T15:41:34Z) - Nonlinear Feature Aggregation: Two Algorithms driven by Theory [45.3190496371625]
現実世界の機械学習アプリケーションは、膨大な機能によって特徴付けられ、計算やメモリの問題を引き起こす。
一般集約関数を用いて特徴量の非線形変換を集約する次元還元アルゴリズム(NonLinCFA)を提案する。
また、アルゴリズムを合成および実世界のデータセット上でテストし、回帰および分類タスクを実行し、競合性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:57:33Z) - Distributed Dynamic Safe Screening Algorithms for Sparse Regularization [73.85961005970222]
本稿では,分散動的安全スクリーニング(DDSS)手法を提案し,共有メモリアーキテクチャと分散メモリアーキテクチャにそれぞれ適用する。
提案手法は, 線形収束率を低次複雑度で達成し, 有限個の繰り返しにおいてほとんどすべての不活性な特徴をほぼ確実に除去できることを示す。
論文 参考訳(メタデータ) (2022-04-23T02:45:55Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - Learning to Accelerate Heuristic Searching for Large-Scale Maximum
Weighted b-Matching Problems in Online Advertising [51.97494906131859]
バイパルタイトbマッチングはアルゴリズム設計の基本であり、経済市場や労働市場などに広く適用されている。
既存の正確で近似的なアルゴリズムは、通常そのような設定で失敗する。
我々は、以前の事例から学んだ知識を活用して、新しい問題インスタンスを解決するtextttNeuSearcherを提案する。
論文 参考訳(メタデータ) (2020-05-09T02:48:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。