論文の概要: app.build: A Production Framework for Scaling Agentic Prompt-to-App Generation with Environment Scaffolding
- arxiv url: http://arxiv.org/abs/2509.03310v1
- Date: Wed, 03 Sep 2025 13:41:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.532498
- Title: app.build: A Production Framework for Scaling Agentic Prompt-to-App Generation with Environment Scaffolding
- Title(参考訳): app.build: 環境負荷によるエージェントprompt-to-App生成のスケーリングのための生産フレームワーク
- Authors: Evgenii Kniazev, Arseny Kravchenko, Igor Rekun, James Broadhead, Nikita Shamgunov, Pranav Sah, Pratik Nichite, Ivan Yamshchikov,
- Abstract要約: 我々は,LLMベースのアプリケーション生成を改善するオープンソースフレームワークであるapp.buildについて,体系的な検証と構造化環境を通じて紹介する。
このアプローチでは,3つの参照スタックにまたがって実装された多層検証パイプライン,スタック固有のオーケストレーション,モデルに依存しないアーキテクチャを組み合わせる。
本研究では, 包括的検証が73.3%, 30%が完全品質を達成し, オープンウェイトモデルが80.8%のクローズドモデル性能を達成していることを示す。
- 参考スコア(独自算出の注目度): 0.09198412216120845
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present app.build (https://github.com/appdotbuild/agent/), an open-source framework that improves LLM-based application generation through systematic validation and structured environments. Our approach combines multi-layered validation pipelines, stack-specific orchestration, and model-agnostic architecture, implemented across three reference stacks. Through evaluation on 30 generation tasks, we demonstrate that comprehensive validation achieves 73.3% viability rate with 30% reaching perfect quality scores, while open-weights models achieve 80.8% of closed-model performance when provided structured environments. The open-source framework has been adopted by the community, with over 3,000 applications generated to date. This work demonstrates that scaling reliable AI agents requires scaling environments, not just models -- providing empirical insights and complete reference implementations for production-oriented agent systems.
- Abstract(参考訳): App.build(https://github.com/appdotbuild/agent/)は,LLMベースのアプリケーション生成を改善するオープンソースフレームワークである。
このアプローチでは,3つの参照スタックにまたがって実装された多層検証パイプライン,スタック固有のオーケストレーション,モデルに依存しないアーキテクチャを組み合わせる。
提案手法は,30生成タスクの総合的検証が73.3%,完全品質スコアが30%,オープンウェイトモデルが80.8%のクローズドモデル性能を実現していることを示す。
オープンソースフレームワークはコミュニティによって採用され、これまでに3,000以上のアプリケーションが作成された。
この研究は、信頼性の高いAIエージェントのスケーリングには、モデルだけでなく、スケーリング環境が必要であることを実証している。
関連論文リスト
- Agent World Model: Infinity Synthetic Environments for Agentic Reinforcement Learning [62.499592503950026]
大規模言語モデル(LLM)は、ツールや環境とのマルチターンインタラクションを必要とする複雑なタスクを実行するために、自律エージェントに権限を与えている。
完全合成環境生成パイプラインであるエージェント・ワールド・モデル(AWM)を提案する。
私たちは、エージェントがリッチなツールセットと対話できる、毎日のシナリオをカバーする1,000の環境にスケールします。
論文 参考訳(メタデータ) (2026-02-10T18:55:41Z) - SWE-Universe: Scale Real-World Verifiable Environments to Millions [84.63665266236963]
SWE-Universeは、GitHubのプルリクエスト(PR)から検証可能な環境を自動的に構築するフレームワークである。
本稿では, 自動建築の課題を克服するために, 効率的なカスタムトレーニングモデルを用いた建築エージェントを提案する。
大規模エージェントによる中等教育と強化学習を通じて,環境の重要さを実証する。
論文 参考訳(メタデータ) (2026-02-02T17:20:30Z) - A Lightweight Modular Framework for Constructing Autonomous Agents Driven by Large Language Models: Design, Implementation, and Applications in AgentForge [1.932555230783329]
LLM駆動の自律エージェントの構築を民主化するために設計された軽量でオープンソースのPythonフレームワーク。
AgentForgeは、(1)正式に定義された入出力契約できめ細かいタスク分解を可能にする構成可能なスキル抽象化、(2)クラウドベースのAPIとローカル推論エンジンのシームレスな切り替えをサポートする統一されたバックエンドインターフェース、(3)エージェントロジックと実装の詳細を分離する宣言型YAMLベースの構成システムである。
論文 参考訳(メタデータ) (2026-01-19T20:33:26Z) - Semantic Caching and Intent-Driven Context Optimization for Multi-Agent Natural Language to Code Systems [0.0]
本稿では,自然言語クエリを構造化データ解析のための実行可能なPythonコードに変換するために,実運用最適化マルチエージェントシステムを提案する。
高価なフロンティアモデルに依存するシステムとは異なり、我々のアプローチは3つの重要な革新を通じて高い精度とコスト効率を達成する。
本稿では,LLM ベースの分析システムを大規模に展開する上での実践的考察について述べる。
論文 参考訳(メタデータ) (2026-01-16T11:32:20Z) - ABC-Bench: Benchmarking Agentic Backend Coding in Real-World Development [72.4729759618632]
本稿では,現実的かつ実行可能なワークフロー内でエージェントバックエンドコーディングを評価するベンチマークであるABC-Benchを紹介する。
オープンソースリポジトリから8つの言語と19のフレームワークにまたがる224の実践的なタスクをキュレートしました。
我々の評価は、最先端モデルでさえ、これらの総合的なタスクに対して信頼性の高いパフォーマンスを提供するのに苦労していることを示している。
論文 参考訳(メタデータ) (2026-01-16T08:23:52Z) - Let It Flow: Agentic Crafting on Rock and Roll, Building the ROME Model within an Open Agentic Learning Ecosystem [90.17610617854247]
本稿では,エージェントモデルの生産パイプラインを最適化する基盤インフラであるエージェント学習エコシステム(ALE)を紹介する。
ALEは、重量最適化のためのトレーニング後のフレームワークであるROLL、軌道生成のためのサンドボックス環境マネージャであるROCK、効率的なコンテキストエンジニアリングのためのエージェントフレームワークであるiFlow CLIの3つのコンポーネントで構成されている。
ROMEはALEが基盤として100万件以上のトラジェクトリをトレーニングしたオープンソースエージェントです。
論文 参考訳(メタデータ) (2025-12-31T14:03:39Z) - SCUBA: Salesforce Computer Use Benchmark [63.66753028386581]
SCUBAは、Salesforceプラットフォーム内の顧客関係管理(CRM)上のコンピュータ利用エージェントを評価するために設計されたベンチマークである。
SCUBAには、実際のユーザインタビューから派生した300のタスクインスタンスが含まれており、3つの主要なペルソナ、プラットフォーム管理者、セールス担当者、サービスエージェントで構成されている。
ゼロショット設定とデモ拡張設定の両方で、多様なエージェントのセットをベンチマークします。
論文 参考訳(メタデータ) (2025-09-30T16:48:49Z) - Scalable Engine and the Performance of Different LLM Models in a SLURM based HPC architecture [3.746889836344766]
本研究は、SLURM(Simple Linux Utility for Resource Management)に基づく高性能コンピューティングアーキテクチャについて詳述する。
動的リソーススケジューリングとコンテナ化のシームレスな統合は、CPU、GPU、メモリをマルチノードクラスタで効率的に管理するために活用されている。
その結果,大規模HPCインフラストラクチャ上でのLLM推論は,より効率的で応答性が高く,耐故障性に優れた。
論文 参考訳(メタデータ) (2025-08-25T09:11:27Z) - OmniEAR: Benchmarking Agent Reasoning in Embodied Tasks [52.87238755666243]
OmniEARは,言語モデルが身体的相互作用やツールの使用,マルチエージェントの協調にどう影響するかを評価するためのフレームワークである。
我々は、家庭と工業領域にまたがる1500のシナリオにおける連続的な物理的特性と複雑な空間的関係をモデル化する。
我々の体系的な評価は、モデルが制約から推論しなければならない場合、厳しい性能劣化を示す。
論文 参考訳(メタデータ) (2025-08-07T17:54:15Z) - LiveMCPBench: Can Agents Navigate an Ocean of MCP Tools? [50.60770039016318]
モデルコンテキストプロトコル(MCP)エージェントをベンチマークする最初の総合ベンチマークであるLiveMCPBenchを紹介する。
LiveMCPBenchは、MPPエコシステムに根ざした95の現実世界のタスクで構成されている。
評価は10の先行モデルを対象としており、最高の性能のモデルが78.95%の成功率に達した。
論文 参考訳(メタデータ) (2025-08-03T14:36:42Z) - MCPEval: Automatic MCP-based Deep Evaluation for AI Agent Models [76.72220653705679]
我々は、エンドツーエンドタスク生成とインテリジェントエージェントの深い評価を自動化するオープンソースのフレームワークであるMCPEvalを紹介する。
MCPEvalはメトリクスを標準化し、ネイティブエージェントツールとシームレスに統合し、評価パイプラインを構築するための手作業を排除する。
実世界の5つのドメインにまたがる実証的な結果から、ニュアンスのある、ドメイン固有のパフォーマンスを明らかにする効果が示された。
論文 参考訳(メタデータ) (2025-07-17T05:46:27Z) - SetupBench: Assessing Software Engineering Agents' Ability to Bootstrap Development Environments [2.184775414778289]
環境ブートストラップスキルを分離するベンチマークである setupbench を導入する。
私たちのタスクは7つの言語エコシステム、5つのデータベースエンジン、マルチサービスオーケストレーションシナリオにまたがっています。
特にリポジトリのセットアップ(38.9-57.4%)とローカルデータベースの設定(20.0-53.3%)に課題がある。
論文 参考訳(メタデータ) (2025-07-11T22:45:07Z) - Disambiguation-Centric Finetuning Makes Enterprise Tool-Calling LLMs More Realistic and Less Risky [0.0]
大規模言語モデル(LLM)はますますエンタープライズAPIの呼び出しを担っているが、ほぼ重複したツールが同じユーザ意図で動作しようとすると、日常的にフェールする。
人格駆動の多ターン対話を合成する,曖昧性中心の3段階パイプラインであるDiaFORGEを紹介する。
DiaBENCHのベンチマークでは、DiaFORGEでトレーニングしたモデルは、GPT-4oで27pp、Claude-3.5-Sonnetで49pp、それぞれ最適化されたプロンプトで成功した。
論文 参考訳(メタデータ) (2025-07-04T06:49:02Z) - An Integrated Platform for LEED Certification Automation Using Computer Vision and LLM-RAG [0.0]
本稿では,LEED認証の重要な側面を合理化する自動化プラットフォームを提案する。
このプラットフォームには、PySide6ベースのユーザインターフェース、プロセスオーケストレーションのためのレビューマネージャ、クレジットコンプライアンスのための複数の分析エンジン、EnergyPlusによるエネルギーモデリング、ロケーションベースの評価が含まれている。
論文 参考訳(メタデータ) (2025-06-01T08:05:35Z) - CRAB: Cross-environment Agent Benchmark for Multimodal Language Model Agents [49.68117560675367]
Crabは、クロス環境タスクをサポートするように設計された最初のベンチマークフレームワークである。
私たちのフレームワークは複数のデバイスをサポートし、Pythonインターフェースで簡単に任意の環境に拡張できます。
実験の結果、GPT-4oの1剤が38.01%の最高完成率を達成することが示された。
論文 参考訳(メタデータ) (2024-07-01T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。