論文の概要: HyperFast: Instant Classification for Tabular Data
- arxiv url: http://arxiv.org/abs/2402.14335v1
- Date: Thu, 22 Feb 2024 07:07:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-02-23 16:02:01.217154
- Title: HyperFast: Instant Classification for Tabular Data
- Title(参考訳): hyperfast: 表データに対する即時分類
- Authors: David Bonet, Daniel Mas Montserrat, Xavier Gir\'o-i-Nieto, Alexander
G. Ioannidis
- Abstract要約: HyperFastは、単一のフォワードパスにおける表データの即時分類のために設計された、メタトレーニングされたハイパーネットワークである。
HyperFastは競争力が高いが、非常に高速であることを示す。
提案手法は, 微調整をほとんど行わず, 多様な分類タスクに対して頑健な適応性を示す。
- 参考スコア(独自算出の注目度): 48.186689585347544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training deep learning models and performing hyperparameter tuning can be
computationally demanding and time-consuming. Meanwhile, traditional machine
learning methods like gradient-boosting algorithms remain the preferred choice
for most tabular data applications, while neural network alternatives require
extensive hyperparameter tuning or work only in toy datasets under limited
settings. In this paper, we introduce HyperFast, a meta-trained hypernetwork
designed for instant classification of tabular data in a single forward pass.
HyperFast generates a task-specific neural network tailored to an unseen
dataset that can be directly used for classification inference, removing the
need for training a model. We report extensive experiments with OpenML and
genomic data, comparing HyperFast to competing tabular data neural networks,
traditional ML methods, AutoML systems, and boosting machines. HyperFast shows
highly competitive results, while being significantly faster. Additionally, our
approach demonstrates robust adaptability across a variety of classification
tasks with little to no fine-tuning, positioning HyperFast as a strong solution
for numerous applications and rapid model deployment. HyperFast introduces a
promising paradigm for fast classification, with the potential to substantially
decrease the computational burden of deep learning. Our code, which offers a
scikit-learn-like interface, along with the trained HyperFast model, can be
found at https://github.com/AI-sandbox/HyperFast.
- Abstract(参考訳): ディープラーニングモデルのトレーニングとハイパーパラメータチューニングの実行は、計算処理と時間を要する可能性がある。
一方、勾配ブースティングアルゴリズムのような従来の機械学習手法は、ほとんどの表データアプリケーションで好まれる選択肢であり、ニューラルネットワークの代替手段は広範なハイパーパラメータチューニングを必要とする。
本稿では,単一前方パスにおける表データの即時分類を目的としたメタトレーニング型ハイパーネットワークHyperFastを紹介する。
hyperfastは、未発見のデータセットに合わせたタスク固有のニューラルネットワークを生成し、モデルトレーニングの必要性をなくして、直接分類推論に使用できる。
OpenMLとゲノムデータによる広範な実験を報告し、HyperFastと競合する表型データニューラルネットワーク、従来のMLメソッド、AutoMLシステム、ブースティングマシンを比較した。
HyperFastは競争力が高いが、非常に速い。
さらに,様々な分類タスクに対して,微調整をほとんど行わずに堅牢な適応性を示し,ハイパーファストを多数のアプリケーションと迅速なモデル展開のための強力なソリューションとして位置づける。
HyperFastは高速分類のための有望なパラダイムを導入し、ディープラーニングの計算負担を大幅に削減する可能性がある。
トレーニングされたHyperFastモデルとともに、Scikit-learnライクなインターフェースを提供する私たちのコードは、https://github.com/AI-sandbox/HyperFast.comで確認できます。
関連論文リスト
- Principled Architecture-aware Scaling of Hyperparameters [69.98414153320894]
高品質のディープニューラルネットワークをトレーニングするには、非自明で高価なプロセスである適切なハイパーパラメータを選択する必要がある。
本研究では,ネットワークアーキテクチャにおける初期化と最大学習率の依存性を正確に評価する。
ネットワークランキングは、ベンチマークのトレーニングネットワークにより容易に変更可能であることを実証する。
論文 参考訳(メタデータ) (2024-02-27T11:52:49Z) - Efficient Asynchronous Federated Learning with Sparsification and
Quantization [55.6801207905772]
フェデレートラーニング(FL)は、生データを転送することなく、機械学習モデルを協調的にトレーニングするために、ますます注目を集めている。
FLは一般的に、モデルトレーニングの全プロセス中にパラメータサーバーと多数のエッジデバイスを利用する。
TEASQ-Fedは、エッジデバイスを利用して、タスクに積極的に適用することで、トレーニングプロセスに非同期に参加する。
論文 参考訳(メタデータ) (2023-12-23T07:47:07Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Gluing Neural Networks Symbolically Through Hyperdimensional Computing [8.209945970790741]
ニューラルネットワークの出力信号の最終的な分類を符号化するためにバイナリハイパーベクタを用いるという概念について検討する。
これにより、複数のニューラルネットワークが協力して問題を解決することができ、オーバーヘッドは少なくなる。
これは、非常に少ないオーバーヘッドを使用しながら、芸術の状態を上回り、あるいはそれと同等であることがわかった。
論文 参考訳(メタデータ) (2022-05-31T04:44:02Z) - HyperJump: Accelerating HyperBand via Risk Modelling [1.6414807719524085]
HyperJumpは、HyperBandの堅牢な検索戦略に基づいて構築され、新しいモデルベースのリスク分析技術でそれを補完する新しいアプローチである。
HyperBandと比較して、さまざまなディープラーニングやカーネルベースの学習問題に対して、一桁以上のスピードアップを提供することを示す。
論文 参考訳(メタデータ) (2021-08-05T09:36:26Z) - HyperNP: Interactive Visual Exploration of Multidimensional Projection
Hyperparameters [61.354362652006834]
HyperNPは、ニューラルネットワーク近似をトレーニングすることで、プロジェクションメソッドをリアルタイムにインタラクティブに探索できるスケーラブルな方法である。
我々は3つのデータセット間でのHyperNPの性能を,性能と速度の観点から評価した。
論文 参考訳(メタデータ) (2021-06-25T17:28:14Z) - Superiorities of Deep Extreme Learning Machines against Convolutional
Neural Networks [3.04585143845864]
deep learning (dl)は、入力データを詳細に分析する人工知能のための機械学習手順である。
DLはグラフィカル処理ユニット機能の一般的な改善で人気がある。
Deep Extreme Learning Machine(Deep ELM)は、迅速な分類問題を解決するための最速かつ効果的な方法の1つです。
論文 参考訳(メタデータ) (2021-01-21T08:22:18Z) - HyperMorph: Amortized Hyperparameter Learning for Image Registration [8.13669868327082]
HyperMorphは、変形可能な画像登録のための学習ベースの戦略です。
既存の検索戦略よりもはるかに高速に複数のハイパーパラメータを最適化できることを示す。
論文 参考訳(メタデータ) (2021-01-04T15:39:16Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Pairwise Neural Networks (PairNets) with Low Memory for Fast On-Device
Applications [0.0]
従来の人工ニューラルネットワーク(ANN)は通常、バックプロパゲーションアルゴリズムのような勾配降下アルゴリズムによってゆっくりと訓練される。
Pairwise Neural Network"(PairNet)と呼ばれる,高速な非漸進的ハイパーパラメータ最適化を備えた,幅広で浅い4層ANNを作成した。
論文 参考訳(メタデータ) (2020-02-10T02:12:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。