論文の概要: LLaPipe: LLM-Guided Reinforcement Learning for Automated Data Preparation Pipeline Construction
- arxiv url: http://arxiv.org/abs/2507.13712v1
- Date: Fri, 18 Jul 2025 07:52:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.210017
- Title: LLaPipe: LLM-Guided Reinforcement Learning for Automated Data Preparation Pipeline Construction
- Title(参考訳): LLaPipe: 自動データ作成パイプライン構築のためのLLM誘導強化学習
- Authors: Jing Chang, Chang Liu, Jinbin Huang, Rui Mao, Jianbin Qin,
- Abstract要約: LLaPipeは、Large Language Models(LLM)をインテリジェントポリシーアドバイザとして統合する新しいフレームワークである。
我々はLLaPipeがパイプラインの品質を最大22.4%向上し、2.3$times$高速収束を実現することを実証した。
- 参考スコア(独自算出の注目度): 10.777588304625718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated data preparation is crucial for democratizing machine learning, yet existing reinforcement learning (RL) based approaches suffer from inefficient exploration in the vast space of possible preprocessing pipelines. We present LLaPipe, a novel framework that addresses this exploration bottleneck by integrating Large Language Models (LLMs) as intelligent policy advisors. Unlike traditional methods that rely solely on statistical features and blind trial-and-error, LLaPipe leverages the semantic understanding capabilities of LLMs to provide contextually relevant exploration guidance. Our framework introduces three key innovations: (1) an LLM Policy Advisor that analyzes dataset semantics and pipeline history to suggest promising preprocessing operations, (2) an Experience Distillation mechanism that mines successful patterns from past pipelines and transfers this knowledge to guide future exploration, and (3) an Adaptive Advisor Triggering strategy (Advisor\textsuperscript{+}) that dynamically determines when LLM intervention is most beneficial, balancing exploration effectiveness with computational cost. Through extensive experiments on 18 diverse datasets spanning multiple domains, we demonstrate that LLaPipe achieves up to 22.4\% improvement in pipeline quality and 2.3$\times$ faster convergence compared to state-of-the-art RL-based methods, while maintaining computational efficiency through selective LLM usage (averaging only 19.0\% of total exploration steps).
- Abstract(参考訳): 機械学習の民主化には自動データ準備が不可欠だが、既存の強化学習(RL)ベースのアプローチは、可能性のある前処理パイプラインの広大な領域において、非効率な探索に苦しむ。
LLaPipeは,Large Language Models(LLM)をインテリジェントなポリシーアドバイザとして統合することで,この探索ボトルネックに対処する新しいフレームワークである。
統計的特徴と視覚的試行錯誤にのみ依存する従来の手法とは異なり、LLaPipeはLLMの意味理解機能を活用して、文脈的に関連する探索ガイダンスを提供する。
本フレームワークでは,(1)データセットのセマンティクスとパイプライン履歴を分析して,将来的な前処理操作を提案するLCMポリシーアドバイザ,(2)過去のパイプラインから成功したパターンをマイニングし,この知識を将来の探索を導くエクスペリエンス蒸留機構,(3)LCM介入が最も有用であるタイミングを動的に決定する適応的アドバイザトリガリング戦略(Advisor\textsuperscript{+})の3つの重要なイノベーションを紹介する。
複数の領域にまたがる18の多様なデータセットに関する広範な実験を通して、LLaPipeはパイプラインの品質を最大22.4\%改善し、2.3$\times$高速収束を実現し、選択的なLLM使用率(全探索ステップの19.0\%)で計算効率を維持できることを示した。
関連論文リスト
- Iterative Self-Incentivization Empowers Large Language Models as Agentic Searchers [74.17516978246152]
大規模言語モデル(LLM)は、従来の手法を進化させるために情報検索に広く統合されている。
エージェント検索フレームワークであるEXSEARCHを提案する。
4つの知識集約ベンチマークの実験では、EXSEARCHはベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-26T15:27:55Z) - Toward Efficient Exploration by Large Language Model Agents [14.712532175418884]
大規模言語モデル(LLM)は、既存の強化学習アルゴリズムを明示的に実装するために使用することができる。
本稿では,LLMによるデータ効率のよいRLアルゴリズムの実装が,自然言語処理において極めて効果的であることを示す。
論文 参考訳(メタデータ) (2025-04-29T17:59:48Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Dspy-based Neural-Symbolic Pipeline to Enhance Spatial Reasoning in LLMs [29.735465300269993]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な能力を示してきたが、しばしば空間的推論に苦しむ。
本稿では LLM と Answer Set Programming (ASP) の反復的フィードバックにより LLM の空間推論能力を高める新しいニューラルシンボリックフレームワークを提案する。
我々は、StepGameとSparQAという2つのベンチマークデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2024-11-27T18:04:05Z) - EVOLvE: Evaluating and Optimizing LLMs For In-Context Exploration [76.66831821738927]
大規模言語モデル(LLM)は、不確実性の下で最適な意思決定を必要とするシナリオにおいて、未調査のままである。
多くのアプリケーションに関係のあるステートレス強化学習環境である,帯域幅を最適に決定できる LLM の (in) 能力の測定を行う。
最適な探索アルゴリズムの存在を動機として,このアルゴリズム知識をLLMに統合する効率的な方法を提案する。
論文 参考訳(メタデータ) (2024-10-08T17:54:03Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - How Can LLM Guide RL? A Value-Based Approach [68.55316627400683]
強化学習(Reinforcement Learning, RL)は、将来の行動方針をフィードバックで改善することにより、シーケンシャルな意思決定問題の事実上の標準的実践となった。
大規模言語モデル(LLM)の最近の発展は、言語理解と生成において印象的な能力を示したが、探索と自己改善能力に欠けていた。
我々はLINVITというアルゴリズムを開発し、LLMガイダンスを値ベースRLの正規化因子として組み込んで学習に必要なデータ量を大幅に削減する。
論文 参考訳(メタデータ) (2024-02-25T20:07:13Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。