論文の概要: MLZero: A Multi-Agent System for End-to-end Machine Learning Automation
- arxiv url: http://arxiv.org/abs/2505.13941v1
- Date: Tue, 20 May 2025 05:20:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.757375
- Title: MLZero: A Multi-Agent System for End-to-end Machine Learning Automation
- Title(参考訳): MLZero: エンドツーエンド機械学習自動化のためのマルチエージェントシステム
- Authors: Haoyang Fang, Boran Han, Nick Erickson, Xiyuan Zhang, Su Zhou, Anirudh Dagar, Jiani Zhang, Ali Caner Turkmen, Cuixiong Hu, Huzefa Rangwala, Ying Nian Wu, Bernie Wang, George Karypis,
- Abstract要約: MLZeroはLarge Language Models(LLM)を利用した新しいマルチエージェントフレームワークである。
認知認識モジュールが最初に使用され、生のマルチモーダル入力を知覚コンテキストに変換する。
MLZeroは、MLE-Bench Liteで優れたパフォーマンスを示し、成功率とソリューション品質の両方で競合他社を上回っている。
- 参考スコア(独自算出の注目度): 48.716299953336346
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing AutoML systems have advanced the automation of machine learning (ML); however, they still require substantial manual configuration and expert input, particularly when handling multimodal data. We introduce MLZero, a novel multi-agent framework powered by Large Language Models (LLMs) that enables end-to-end ML automation across diverse data modalities with minimal human intervention. A cognitive perception module is first employed, transforming raw multimodal inputs into perceptual context that effectively guides the subsequent workflow. To address key limitations of LLMs, such as hallucinated code generation and outdated API knowledge, we enhance the iterative code generation process with semantic and episodic memory. MLZero demonstrates superior performance on MLE-Bench Lite, outperforming all competitors in both success rate and solution quality, securing six gold medals. Additionally, when evaluated on our Multimodal AutoML Agent Benchmark, which includes 25 more challenging tasks spanning diverse data modalities, MLZero outperforms the competing methods by a large margin with a success rate of 0.92 (+263.6\%) and an average rank of 2.28. Our approach maintains its robust effectiveness even with a compact 8B LLM, outperforming full-size systems from existing solutions.
- Abstract(参考訳): 既存のAutoMLシステムでは、機械学習(ML)の自動化が進んでいるが、特にマルチモーダルデータを扱う場合には、手作業による設定や専門家の入力が依然として必要である。
我々はMLZeroを紹介した。MLZeroはLarge Language Models(LLM)を利用した新しいマルチエージェントフレームワークで、人間の介入を最小限に抑え、多様なデータモダリティをまたいでエンドツーエンドのML自動化を可能にする。
認知認識モジュールが最初に使用され、生のマルチモーダル入力を知覚コンテキストに変換し、その後のワークフローを効果的に導く。
符号化コード生成や古いAPI知識といったLLMの重要な制約に対処するため,セマンティックメモリとエピソードメモリを用いた反復コード生成プロセスを強化する。
MLZeroはMLE-Bench Liteで優れたパフォーマンスを示し、成功率とソリューションクオリティの両方でライバルに勝り、6つの金メダルを確保した。
さらに、さまざまなデータモダリティにまたがる25の課題を含む、Multimodal AutoML Agent Benchmarkでの評価では、MLZeroは、成功率0.92(+263.6\%)、平均ランク2.28で競合するメソッドよりも優れています。
提案手法は, コンパクトな8B LLMでも頑健な有効性を維持し, 既存ソリューションのフルサイズシステムよりも優れている。
関連論文リスト
- Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
我々は、MLLMのマルチモーダル推論能力を高めるために、選好最適化(PO)プロセスを導入する。
具体的には、自動選好データ構築パイプラインを設計し、高品質で大規模なマルチモーダル推論選好データセットであるMMPRを作成する。
マルチモーダルCoT性能を向上するMPO(Mixed Preference Optimization)と呼ばれるシンプルな手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - Protecting Privacy in Multimodal Large Language Models with MLLMU-Bench [17.73279547506514]
マルチモーダル・ラージ・モデル・アンラーニングベンチマーク(MLLMU-Bench)は,マルチモーダル・マシン・アンラーニングの理解を深めるための新しいベンチマークである。
MLLMU-Benchは500の架空のプロファイルと153のプロフィールで構成され、各プロファイルは14以上のカスタマイズされた質問応答ペアで構成され、マルチモーダル(画像+テキスト)とユニモーダル(テキスト)の両方の観点から評価される。
意外なことに、我々の実験では、ユニモーダル・アンラーニングのアルゴリズムは生成タスクやクローズタスクに優れており、マルチモーダル・アンラーニングのアプローチはマルチモーダル入力による分類タスクにおいてより優れている。
論文 参考訳(メタデータ) (2024-10-29T15:07:23Z) - LLMs Can Evolve Continually on Modality for X-Modal Reasoning [62.2874638875554]
既存の手法は、モーダル固有の事前訓練とジョイント・モーダルチューニングに大きく依存しており、新しいモーダルへと拡張する際の計算上の負担が大きくなった。
PathWeaveは、Modal-Path sWitchingとExpAnsion機能を備えた柔軟でスケーラブルなフレームワークである。
PathWeaveは最先端のMLLMと互換性があり、パラメータトレーニングの負担を98.73%削減する。
論文 参考訳(メタデータ) (2024-10-26T13:19:57Z) - Position: A Call to Action for a Human-Centered AutoML Paradigm [83.78883610871867]
自動機械学習(AutoML)は、機械学習(ML)を自動かつ効率的に構成する基本的目的を中心に形成された。
AutoMLの完全な可能性を解き放つ鍵は、現在探索されていないAutoMLシステムとのユーザインタラクションの側面に対処することにある、と私たちは主張する。
論文 参考訳(メタデータ) (2024-06-05T15:05:24Z) - Large Language Models Synergize with Automated Machine Learning [12.364087286739647]
本稿では,大規模言語モデル(LLM)と自動機械学習(AutoML)を組み合わせることで,機械学習(ML)プログラムを対象とするプログラム合成の新たな形態について検討する。
テキストによるタスク記述を前提とした実験では,本手法は完全かつ最適化されたMLプログラムを完全自律的なプロセスで生成する。
論文 参考訳(メタデータ) (2024-05-06T08:09:46Z) - Multi-Agent Automated Machine Learning [54.14038920246645]
自動機械学習(AutoML)におけるモジュールの共同最適化のためのマルチエージェント自動機械学習(MA2ML)を提案する。
MA2MLはモジュール間の協力を強化するために各エージェントにクレジットを明示的に割り当て、検索効率を向上させるために政治外の学習を取り入れている。
実験により、MA2MLは計算コストの制約の下でImageNet上で最先端のトップ1の精度が得られることが示された。
論文 参考訳(メタデータ) (2022-10-17T13:32:59Z) - Robusta: Robust AutoML for Feature Selection via Reinforcement Learning [24.24652530951966]
強化学習(RL)に基づく初の堅牢なAutoMLフレームワークRobostaを提案します。
このフレームワークは,良性サンプルの競争精度を維持しつつ,モデルロバスト性を最大22%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-01-15T03:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。