論文の概要: Is deep learning necessary for simple classification tasks?
- arxiv url: http://arxiv.org/abs/2006.06730v1
- Date: Thu, 11 Jun 2020 18:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:08:31.022301
- Title: Is deep learning necessary for simple classification tasks?
- Title(参考訳): 深層学習は単純な分類作業に必要か?
- Authors: Joseph D. Romano, Trang T. Le, Weixuan Fu, and Jason H. Moore
- Abstract要約: 自動機械学習(Automated Machine Learning、ML)とディープラーニング(Deep Learning、DL)は、帰納的学習タスクを解決するために使用される最先端のパラダイムである。
6つのよく認識された公開データセットのバイナリ分類の文脈でAutoMLとDLを比較した。
また、深部推定器を組み込んだ遺伝的プログラミングに基づくAutoMLの新しいツールの評価を行った。
- 参考スコア(独自算出の注目度): 3.3793659640122717
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated machine learning (AutoML) and deep learning (DL) are two
cutting-edge paradigms used to solve a myriad of inductive learning tasks. In
spite of their successes, little guidance exists for when to choose one
approach over the other in the context of specific real-world problems.
Furthermore, relatively few tools exist that allow the integration of both
AutoML and DL in the same analysis to yield results combining both of their
strengths. Here, we seek to address both of these issues, by (1.) providing a
head-to-head comparison of AutoML and DL in the context of binary
classification on 6 well-characterized public datasets, and (2.) evaluating a
new tool for genetic programming-based AutoML that incorporates deep
estimators. Our observations suggest that AutoML outperforms simple DL
classifiers when trained on similar datasets for binary classification but
integrating DL into AutoML improves classification performance even further.
However, the substantial time needed to train AutoML+DL pipelines will likely
outweigh performance advantages in many applications.
- Abstract(参考訳): 自動化機械学習(automl)とディープラーニング(dl)は、無数の帰納的学習タスクを解決するために使用される2つの最先端パラダイムである。
彼らの成功にもかかわらず、特定の現実世界の問題の文脈において、あるアプローチを別のアプローチで選択する際のガイダンスはほとんどない。
さらに、AutoMLとDLを同じ分析で統合することで、両方の長所を組み合わせた結果が得られるツールは比較的少ない。
ここでは,これら2つの課題に対処するため, (1.) 高度に特徴付けられた6つの公開データセットのバイナリ分類の文脈において, AutoML と DL の直接比較を行い, (2.) 深部推定を組み込んだ遺伝的プログラミングベースの AutoML の新しいツールを評価する。
以上の結果から,AutoMLはバイナリ分類のための類似データセットで訓練した場合,単純なDL分類器よりも優れているが,DLをAutoMLに統合することで分類性能がさらに向上することが示唆された。
しかし、AutoML+DLパイプラインのトレーニングに要する時間は、多くのアプリケーションでパフォーマンス上の利点を上回るだろう。
関連論文リスト
- Automated Machine Learning for Multi-Label Classification [3.2634122554914002]
2つのアルゴリズムからなるシングルラベル分類タスクに対して,新しいAutoMLアプローチを考案する。
マルチラベル分類におけるAutoMLの課題複雑性を増大させるとともに,シングルラベル分類タスクにおける技術状態を形成するAutoMLアプローチがいかにスケールするかを検討する。
論文 参考訳(メタデータ) (2024-02-28T09:40:36Z) - AUTOACT: Automatic Agent Learning from Scratch via Self-Planning [56.81725335882185]
AutoActは、大規模アノテートデータやクローズドソースモデルからの合成軌跡に依存しない自動エージェント学習フレームワークである。
我々は異なるLLMを用いて総合的な実験を行い、AutoActは様々な強力なベースラインと比較して優れた性能または並列性能が得られることを示した。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - Benchmarking AutoML algorithms on a collection of binary problems [3.3793659640122717]
本稿では,Tree-based Pipeline Optimization Tool (TPOT), Auto-Sklearn, Auto-Sklearn 2, H2O AutoMLの4種類のAutoMLアルゴリズムの性能を比較した。
私たちはAutoMLがすべての含まれたデータセットでうまく機能するパイプラインを識別できることを確認します。
論文 参考訳(メタデータ) (2022-12-06T01:53:50Z) - Automatic Componentwise Boosting: An Interpretable AutoML System [1.1709030738577393]
本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
論文 参考訳(メタデータ) (2021-09-12T18:34:33Z) - Naive Automated Machine Learning -- A Late Baseline for AutoML [0.0]
AutoML(Automated Machine Learning)は、特定のデータセット上で最高の一般化パフォーマンスを持つパイプラインを自動的に見つける問題です。
機械学習の問題に関する重要なメタ知識を利用するAutoMLの非常に単純なソリューションであるNaive AutoMLを紹介します。
論文 参考訳(メタデータ) (2021-03-18T19:52:12Z) - Auto-Sklearn 2.0: Hands-free AutoML via Meta-Learning [45.643809726832764]
第2回ChaLearn AutoMLチャレンジへの勝利を動機とした新しいAutoMLアプローチを紹介します。
我々はPoSH Auto-Sklearnを開発した。これは、厳格な時間制限下で、AutoMLシステムが大きなデータセットでうまく機能することを可能にする。
また、真にハンズフリーなAutoMLに対する解決策を提案する。
論文 参考訳(メタデータ) (2020-07-08T12:41:03Z) - Auto-PyTorch Tabular: Multi-Fidelity MetaLearning for Efficient and
Robust AutoDL [53.40030379661183]
Auto-PyTorchは、完全に自動化されたディープラーニング(AutoDL)を実現するフレームワーク
ディープニューラルネットワーク(DNN)のウォームスタートとアンサンブルのためのマルチフィデリティ最適化とポートフォリオ構築を組み合わせる。
Auto-PyTorchは、いくつかの最先端の競合製品よりもパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2020-06-24T15:15:17Z) - AutoGluon-Tabular: Robust and Accurate AutoML for Structured Data [120.2298620652828]
オープンソースのAutoMLフレームワークであるAutoGluon-Tabularを紹介します。
KaggleとOpenML AutoML Benchmarkの50の分類および回帰タスクからなるスイートのテストによると、AutoGluonはより速く、より堅牢で、はるかに正確である。
論文 参考訳(メタデータ) (2020-03-13T23:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。