論文の概要: Is deep learning necessary for simple classification tasks?
- arxiv url: http://arxiv.org/abs/2006.06730v1
- Date: Thu, 11 Jun 2020 18:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:08:31.022301
- Title: Is deep learning necessary for simple classification tasks?
- Title(参考訳): 深層学習は単純な分類作業に必要か?
- Authors: Joseph D. Romano, Trang T. Le, Weixuan Fu, and Jason H. Moore
- Abstract要約: 自動機械学習(Automated Machine Learning、ML)とディープラーニング(Deep Learning、DL)は、帰納的学習タスクを解決するために使用される最先端のパラダイムである。
6つのよく認識された公開データセットのバイナリ分類の文脈でAutoMLとDLを比較した。
また、深部推定器を組み込んだ遺伝的プログラミングに基づくAutoMLの新しいツールの評価を行った。
- 参考スコア(独自算出の注目度): 3.3793659640122717
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated machine learning (AutoML) and deep learning (DL) are two
cutting-edge paradigms used to solve a myriad of inductive learning tasks. In
spite of their successes, little guidance exists for when to choose one
approach over the other in the context of specific real-world problems.
Furthermore, relatively few tools exist that allow the integration of both
AutoML and DL in the same analysis to yield results combining both of their
strengths. Here, we seek to address both of these issues, by (1.) providing a
head-to-head comparison of AutoML and DL in the context of binary
classification on 6 well-characterized public datasets, and (2.) evaluating a
new tool for genetic programming-based AutoML that incorporates deep
estimators. Our observations suggest that AutoML outperforms simple DL
classifiers when trained on similar datasets for binary classification but
integrating DL into AutoML improves classification performance even further.
However, the substantial time needed to train AutoML+DL pipelines will likely
outweigh performance advantages in many applications.
- Abstract(参考訳): 自動化機械学習(automl)とディープラーニング(dl)は、無数の帰納的学習タスクを解決するために使用される2つの最先端パラダイムである。
彼らの成功にもかかわらず、特定の現実世界の問題の文脈において、あるアプローチを別のアプローチで選択する際のガイダンスはほとんどない。
さらに、AutoMLとDLを同じ分析で統合することで、両方の長所を組み合わせた結果が得られるツールは比較的少ない。
ここでは,これら2つの課題に対処するため, (1.) 高度に特徴付けられた6つの公開データセットのバイナリ分類の文脈において, AutoML と DL の直接比較を行い, (2.) 深部推定を組み込んだ遺伝的プログラミングベースの AutoML の新しいツールを評価する。
以上の結果から,AutoMLはバイナリ分類のための類似データセットで訓練した場合,単純なDL分類器よりも優れているが,DLをAutoMLに統合することで分類性能がさらに向上することが示唆された。
しかし、AutoML+DLパイプラインのトレーニングに要する時間は、多くのアプリケーションでパフォーマンス上の利点を上回るだろう。
関連論文リスト
- LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - AutoML-Agent: A Multi-Agent LLM Framework for Full-Pipeline AutoML [56.565200973244146]
自動機械学習(Automated Machine Learning, ML)は、開発パイプライン内のタスクを自動化することによって、AI開発を加速する。
近年の作業では,そのような負担を軽減するために,大規模言語モデル(LLM)の利用が始まっている。
本稿では,フルパイプのAutoMLに適した新しいマルチエージェントフレームワークであるAutoML-Agentを提案する。
論文 参考訳(メタデータ) (2024-10-03T20:01:09Z) - Align$^2$LLaVA: Cascaded Human and Large Language Model Preference Alignment for Multi-modal Instruction Curation [56.75665429851673]
本稿では,人間とLLMの選好アライメントという2つのユニークな視点から導いた,新しい命令キュレーションアルゴリズムを提案する。
実験により,合成マルチモーダル命令を最大90%圧縮することにより,モデル性能の維持や改善が可能であることが示された。
論文 参考訳(メタデータ) (2024-09-27T08:20:59Z) - Automated Machine Learning for Multi-Label Classification [3.2634122554914002]
2つのアルゴリズムからなるシングルラベル分類タスクに対して,新しいAutoMLアプローチを考案する。
マルチラベル分類におけるAutoMLの課題複雑性を増大させるとともに,シングルラベル分類タスクにおける技術状態を形成するAutoMLアプローチがいかにスケールするかを検討する。
論文 参考訳(メタデータ) (2024-02-28T09:40:36Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - Benchmarking AutoML algorithms on a collection of binary problems [3.3793659640122717]
本稿では,Tree-based Pipeline Optimization Tool (TPOT), Auto-Sklearn, Auto-Sklearn 2, H2O AutoMLの4種類のAutoMLアルゴリズムの性能を比較した。
私たちはAutoMLがすべての含まれたデータセットでうまく機能するパイプラインを識別できることを確認します。
論文 参考訳(メタデータ) (2022-12-06T01:53:50Z) - Automatic Componentwise Boosting: An Interpretable AutoML System [1.1709030738577393]
本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
論文 参考訳(メタデータ) (2021-09-12T18:34:33Z) - Naive Automated Machine Learning -- A Late Baseline for AutoML [0.0]
AutoML(Automated Machine Learning)は、特定のデータセット上で最高の一般化パフォーマンスを持つパイプラインを自動的に見つける問題です。
機械学習の問題に関する重要なメタ知識を利用するAutoMLの非常に単純なソリューションであるNaive AutoMLを紹介します。
論文 参考訳(メタデータ) (2021-03-18T19:52:12Z) - Auto-Sklearn 2.0: Hands-free AutoML via Meta-Learning [45.643809726832764]
第2回ChaLearn AutoMLチャレンジへの勝利を動機とした新しいAutoMLアプローチを紹介します。
我々はPoSH Auto-Sklearnを開発した。これは、厳格な時間制限下で、AutoMLシステムが大きなデータセットでうまく機能することを可能にする。
また、真にハンズフリーなAutoMLに対する解決策を提案する。
論文 参考訳(メタデータ) (2020-07-08T12:41:03Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。