論文の概要: Simplifying Hyperparameter Tuning in Online Machine Learning -- The
spotRiverGUI
- arxiv url: http://arxiv.org/abs/2402.11594v1
- Date: Sun, 18 Feb 2024 14:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 20:07:44.351460
- Title: Simplifying Hyperparameter Tuning in Online Machine Learning -- The
spotRiverGUI
- Title(参考訳): オンライン機械学習におけるハイパーパラメータチューニングの簡略化 -- spotRiverGUI
- Authors: Thomas Bartz-Beielstein
- Abstract要約: Online Machine Learning (OML)はBatch Machine Learning (BML)の代替品である
OMLはシーケンシャルな方法でデータを処理することができ、特にデータストリームに役立ちます。
- 参考スコア(独自算出の注目度): 0.5439020425819
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Batch Machine Learning (BML) reaches its limits when dealing with very large
amounts of streaming data. This is especially true for available memory,
handling drift in data streams, and processing new, unknown data. Online
Machine Learning (OML) is an alternative to BML that overcomes the limitations
of BML. OML is able to process data in a sequential manner, which is especially
useful for data streams. The `river` package is a Python OML-library, which
provides a variety of online learning algorithms for classification,
regression, clustering, anomaly detection, and more. The `spotRiver` package
provides a framework for hyperparameter tuning of OML models. The
`spotRiverGUI` is a graphical user interface for the `spotRiver` package. The
`spotRiverGUI` releases the user from the burden of manually searching for the
optimal hyperparameter setting. After the data is provided, users can compare
different OML algorithms from the powerful `river` package in a convenient way
and tune the selected algorithms very efficiently.
- Abstract(参考訳): Batch Machine Learning(BML)は非常に大量のストリーミングデータを扱う場合、その限界に達する。
これは、利用可能なメモリ、データストリームのドリフト処理、新しい未知のデータ処理に特に当てはまる。
Online Machine Learning (OML)は、BMLの制限を克服するBMLに代わるものだ。
OMLはシーケンシャルな方法でデータを処理することができ、特にデータストリームに役立ちます。
River`パッケージはPython OMLライブラリであり、分類、回帰、クラスタリング、異常検出など、さまざまなオンライン学習アルゴリズムを提供する。
パッケージは、OMLモデルのハイパーパラメータチューニングのためのフレームワークを提供する。
spotRiverGUI`は、‘spotRiver`パッケージのグラフィカルユーザインターフェースである。
spotrivergui`は、最適なハイパーパラメータの設定を手動で検索する負担からユーザーを解放する。
データが提供されると、ユーザは強力な‘River’パッケージから異なるOMLアルゴリズムを比較して、選択したアルゴリズムを非常に効率的にチューニングできる。
関連論文リスト
- LML-DAP: Language Model Learning a Dataset for Data-Augmented Prediction [0.0]
本稿では,Large Language Models (LLMs) を用いた説明可能な手法によるタスク分類手法を提案する。
分類は、データを手動で探索し、理解して分類を決定する人間に類似した手法を用いて、LLMによって行われる。
システムはいくつかのテストケースで90%以上の精度を記録し、さまざまなシナリオで機械学習モデルを上回る性能と可能性を確認した。
論文 参考訳(メタデータ) (2024-09-27T17:58:50Z) - forester: A Tree-Based AutoML Tool in R [0.0]
ForesterはオープンソースのAutoMLパッケージで、Rで実装され、高品質なツリーベースのモデルをトレーニングする。
バイナリとマルチクラスの分類、回帰、部分生存分析タスクを完全にサポートする。
データ品質に関する問題を検出し、前処理パイプラインを準備し、ツリーベースのモデルのトレーニングとチューニングを行い、結果を評価し、さらなる分析のためにレポートを作成することができる。
論文 参考訳(メタデータ) (2024-09-07T10:39:10Z) - Online Adaptation of Language Models with a Memory of Amortized Contexts [82.02369596879817]
MAC(Memory of Amortized Contexts)は、大規模言語モデルのための効率的かつ効果的なオンライン適応フレームワークである。
MACとMACを組み合わせれば,検索の高速化など,一般的な代替手段の性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-07T08:34:57Z) - Multimodal Learned Sparse Retrieval with Probabilistic Expansion Control [66.78146440275093]
学習検索(LSR)は、クエリとドキュメントを疎語彙ベクトルにエンコードするニューラルネットワークのファミリーである。
テキスト画像検索に焦点をあて,マルチモーダル領域へのLSRの適用について検討する。
LexLIPやSTAIRのような現在のアプローチでは、大規模なデータセットで複雑なマルチステップのトレーニングが必要です。
提案手法は, 密度ベクトルを凍結密度モデルからスパース語彙ベクトルへ効率的に変換する。
論文 参考訳(メタデータ) (2024-02-27T14:21:56Z) - Scaling Sparse Fine-Tuning to Large Language Models [67.59697720719672]
大きな言語モデル(LLM)は、パラメータの数が多いため、完全な微調整が難しい。
本研究では,パラメータの配列とパラメータのデルタを事前学習した値に対して保持する新しいスパース微調整法SpIELを提案する。
提案手法は,LoRAのようなパラメータ効率の高い微調整法よりも性能が優れ,実行時間も同等であることを示す。
論文 参考訳(メタデータ) (2024-01-29T18:43:49Z) - NumS: Scalable Array Programming for the Cloud [82.827921577004]
タスクベース分散システム上でNumPyのような表現を最適化する配列プログラミングライブラリであるNumSを提案する。
これはLoad Simulated Hierarchical Scheduling (LSHS)と呼ばれる新しいスケジューラによって実現される。
LSHSは、ネットワーク負荷を2倍減らし、メモリを4倍減らし、ロジスティック回帰問題において実行時間を10倍減らし、Rayの性能を向上させる。
論文 参考訳(メタデータ) (2022-06-28T20:13:40Z) - STREAMLINE: A Simple, Transparent, End-To-End Automated Machine Learning
Pipeline Facilitating Data Analysis and Algorithm Comparison [0.49034553215430216]
STREAMLINEはシンプルで透明でエンドツーエンドのAutoMLパイプラインである。
データセット、MLアルゴリズム、その他のAutoMLツールのパフォーマンスを比較するように設計されている。
論文 参考訳(メタデータ) (2022-06-23T22:40:58Z) - SubStrat: A Subset-Based Strategy for Faster AutoML [5.833272638548153]
SubStratは、設定スペースではなく、データサイズに取り組むAutoML最適化戦略である。
既存のAutoMLツールをラップし、データセット全体を直接実行する代わりに、SubStratは遺伝的アルゴリズムを使用して小さなサブセットを見つける。
その後、小さなサブセットにAutoMLツールを使用し、最後に、大きなデータセット上で制限された、はるかに短いAutoMLプロセスを実行することで、結果のパイプラインを洗練する。
論文 参考訳(メタデータ) (2022-06-07T07:44:06Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Picasso: A Sparse Learning Library for High Dimensional Data Analysis in
R and Python [77.33905890197269]
本稿では,様々なスパース学習問題に対して,経路座標を統一的に最適化する新しいライブラリについて述べる。
ライブラリはR++でコード化されており、ユーザフレンドリーなスパース実験を行っている。
論文 参考訳(メタデータ) (2020-06-27T02:39:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。