論文の概要: KompeteAI: Accelerated Autonomous Multi-Agent System for End-to-End Pipeline Generation for Machine Learning Problems
- arxiv url: http://arxiv.org/abs/2508.10177v1
- Date: Wed, 13 Aug 2025 20:29:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.110026
- Title: KompeteAI: Accelerated Autonomous Multi-Agent System for End-to-End Pipeline Generation for Machine Learning Problems
- Title(参考訳): KompeteAI: 機械学習問題のためのエンドツーエンドパイプライン生成のための高速化された自律マルチエージェントシステム
- Authors: Stepan Kulibaba, Artem Dzhalilov, Roman Pakhomov, Oleg Svidchenko, Alexander Gasnikov, Aleksei Shpilman,
- Abstract要約: KompeteAIは、動的ソリューション空間探索を備えた新しいAutoMLフレームワークである。
我々は動的ソリューション空間探索を備えた新しいAutoMLフレームワークであるKompeteAIを紹介する。
我々は,MLE-Benchにおける制約に対応するために,Kompete-benchを提案する。
- 参考スコア(独自算出の注目度): 40.57803993552735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent Large Language Model (LLM)-based AutoML systems demonstrate impressive capabilities but face significant limitations such as constrained exploration strategies and a severe execution bottleneck. Exploration is hindered by one-shot methods lacking diversity and Monte Carlo Tree Search (MCTS) approaches that fail to recombine strong partial solutions. The execution bottleneck arises from lengthy code validation cycles that stifle iterative refinement. To overcome these challenges, we introduce KompeteAI, a novel AutoML framework with dynamic solution space exploration. Unlike previous MCTS methods that treat ideas in isolation, KompeteAI introduces a merging stage that composes top candidates. We further expand the hypothesis space by integrating Retrieval-Augmented Generation (RAG), sourcing ideas from Kaggle notebooks and arXiv papers to incorporate real-world strategies. KompeteAI also addresses the execution bottleneck via a predictive scoring model and an accelerated debugging method, assessing solution potential using early stage metrics to avoid costly full-code execution. This approach accelerates pipeline evaluation 6.9 times. KompeteAI outperforms leading methods (e.g., RD-agent, AIDE, and Ml-Master) by an average of 3\% on the primary AutoML benchmark, MLE-Bench. Additionally, we propose Kompete-bench to address limitations in MLE-Bench, where KompeteAI also achieves state-of-the-art results
- Abstract(参考訳): 最近のLarge Language Model(LLM)ベースのAutoMLシステムは、優れた機能を示しているが、制約付き探索戦略や厳しい実行ボトルネックなど、重大な制限に直面している。
探索は多様性を欠いた一発的な手法と、強力な部分解を再結合できないモンテカルロ木探索(MCTS)アプローチによって妨げられている。
実行のボトルネックは、反復的な洗練を阻害する長いコード検証サイクルから生じます。
これらの課題を克服するために、動的ソリューション空間探索を備えた新しいAutoMLフレームワークであるKompeteAIを紹介します。
アイデアを分離して扱う従来のMCTSメソッドとは異なり、KompeteAIは上位候補を構成するマージステージを導入している。
我々は、Retrieval-Augmented Generation (RAG)を統合し、KaggleノートやarXiv紙からアイデアを引き出し、現実世界の戦略を取り入れることで仮説空間をさらに拡大する。
KompeteAIはまた、予測スコアリングモデルと高速化されたデバッグ方法を通じて実行ボトルネックに対処し、早期のメトリクスを使用してソリューションの可能性を評価して、コストのかかるフルコード実行を回避する。
このアプローチはパイプライン評価を6.9回加速する。
KompeteAIは、主要なAutoMLベンチマークであるMLE-Benchで、平均3倍のリードメソッド(例えば、RD-agent、AIDE、Ml-Master)をパフォーマンスします。
また,MLE-Benchにおける制約に対処するKompete-benchを提案する。
関連論文リスト
- Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Destroy and Repair Using Hyper Graphs for Routing [14.391263435675587]
ハイパーグラフに基づくDestroy-and-Repairフレームワークを提案する。
このフレームワークは連続した連続したエッジをハイパーエッジに減らし、モデルが破壊された部分により多くの注意を払って、すべてのノードを符号化する複雑さを減らします。
論文 参考訳(メタデータ) (2025-02-22T10:04:58Z) - I-MCTS: Enhancing Agentic AutoML via Introspective Monte Carlo Tree Search [10.718560472954644]
イントロスペクティブモンテカルロ木探索(Introspective Monte Carlo Tree Search, I-MCTS)は、イントロスペクティブプロセスを通じてツリーノードを反復的に拡張する新しいアプローチである。
我々は,各ノードの解の直接評価を容易にするために,LLM(Large Language Model)ベースの値モデルを統合する。
当社のアプローチでは,強力なオープンソースAutoMLエージェントと比較して,パフォーマンスが6%向上している。
論文 参考訳(メタデータ) (2025-02-20T16:19:09Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。