論文の概要: Action Engine: An LLM-based Framework for Automatic FaaS Workflow Generation
- arxiv url: http://arxiv.org/abs/2411.19485v1
- Date: Fri, 29 Nov 2024 05:54:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:23:22.801189
- Title: Action Engine: An LLM-based Framework for Automatic FaaS Workflow Generation
- Title(参考訳): Action Engine: 自動FaaSワークフロー生成のためのLLMベースのフレームワーク
- Authors: Akiharu Esashi, Pawissanutt Lertpongrujikorn, Mohsen Amini Salehi,
- Abstract要約: 本稿では,ツールAugmented Large Language Models (LLMs) をカーネルで利用し,人間の言語クエリを解釈するアクションエンジンを提案する。
Action EngineはFワークフロー生成を自動化するため、専門的な専門知識や手動設計の必要性が軽減される。
私たちの評価によると、Action Engineは開発者の関与なしに最大20%高い精度で生成できます。
- 参考スコア(独自算出の注目度): 1.5496299906248863
- License:
- Abstract: Function as a Service (FaaS) is poised to become the foundation of the next generation of cloud systems due to its inherent advantages in scalability, cost-efficiency, and ease of use. However, challenges such as the need for specialized knowledge and difficulties in building function workflows persist for cloud-native application developers. To overcome these challenges and mitigate the burden of developing FaaS-based applications, in this paper, we propose a mechanism called Action Engine, that makes use of Tool-Augmented Large Language Models (LLMs) at its kernel to interpret human language queries and automates FaaS workflow generation, thereby, reducing the need for specialized expertise and manual design. Action Engine includes modules to identify relevant functions from the FaaS repository and seamlessly manage the data dependency between them, ensuring that the developer's query is processed and resolved. Beyond that, Action Engine can execute the generated workflow by feeding the user-provided parameters. Our evaluations show that Action Engine can generate workflows with up to 20\% higher correctness without developer involvement. We notice that Action Engine can unlock FaaS workflow generation for non-cloud-savvy developers and expedite the development cycles of cloud-native applications.
- Abstract(参考訳): FaaS(Function as a Service)は、スケーラビリティ、コスト効率、使いやすさに固有のアドバンテージがあるため、次世代のクラウドシステムの基盤になることを目指している。
しかしながら、クラウドネイティブなアプリケーション開発者にとっては、専門知識の必要性や関数ワークフロー構築の難しさといった課題が続いている。
本稿では、これらの課題を克服し、FaaSベースのアプリケーションを開発する際の負担を軽減するために、カーネルでツール拡張大言語モデル(LLM)を使用して人間の言語クエリを解釈し、FaaSワークフロー生成を自動化するメカニズムであるAction Engineを提案する。
Action Engineには、FaaSリポジトリから関連する関数を識別し、それらの間のデータ依存関係をシームレスに管理し、開発者のクエリが処理され、解決されることを保証するモジュールが含まれている。
さらに、Action Engineは、ユーザが提供したパラメータをフィードすることで、生成されたワークフローを実行することができる。
私たちの評価によると、Action Engineは開発者が関与することなく、最大20%高い精度でワークフローを生成することができる。
Action Engineは、クラウドに精通していない開発者にとってFaaSワークフロー生成をアンロックし、クラウドネイティブなアプリケーションの開発サイクルを迅速化できます。
関連論文リスト
- Histrio: a Serverless Actor System [44.99833362998488]
Histrioはステートフルアプリケーションの開発を簡単にするプログラミングモデルと実行環境である。
これは、状態管理、データベースのインタラクション、開発者によるプログラミング処理といった懸念を和らげます。
つまり、アプリケーションは常に外部クライアントとのインタラクションが1度だけ処理されたかのように振る舞うということです。
論文 参考訳(メタデータ) (2024-10-29T06:58:56Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorFBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorFEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することができることを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - Object as a Service: Simplifying Cloud-Native Development through Serverless Object Abstraction [1.7416288134936873]
我々は、アプリケーションデータと関数をクラウドオブジェクトの抽象化にカプセル化する、Object as a Service (O)と呼ばれる新しいパラダイムを提案する。
Oは、組み込み最適化機能を提供しながら、開発者がリソースとデータ管理の負担を軽減します。
我々は、一貫性とフォールトトレラント保証を備えた構造化データと非構造化データの状態抽象化を提供する、Oparacaという名前のプラットフォームを開発した。
論文 参考訳(メタデータ) (2024-08-09T06:55:00Z) - AutoFlow: Automated Workflow Generation for Large Language Model Agents [39.72700864347576]
大規模言語モデル(LLM)は、複雑な自然言語を理解する上で大きな進歩を見せている。
LLMエージェントが与えられたタスクを解決するための効果的で信頼性の高い手順に従うようにするために、手動で設計されるのが通常である。
複雑なタスクを解決するためにエージェントを自動的に生成するフレームワークであるAutoFlowを提案する。
論文 参考訳(メタデータ) (2024-07-01T21:05:02Z) - Couler: Unified Machine Learning Workflow Optimization in Cloud [6.769259207650922]
Coulerは、クラウドにおけるMLワークフローの統一最適化のために設計されたシステムである。
大規模言語モデル(LLM)をワークフロー生成に統合し、さまざまなワークフローエンジンに統一されたプログラミングインターフェースを提供する。
Couerは、CPU/メモリ使用率を15%以上改善し、ワークフロー完了率を約17%向上させた。
論文 参考訳(メタデータ) (2024-03-12T12:47:32Z) - TaskBench: Benchmarking Large Language Models for Task Automation [82.2932794189585]
タスク自動化における大規模言語モデル(LLM)の機能を評価するためのフレームワークであるTaskBenchを紹介する。
具体的には、タスクの分解、ツールの選択、パラメータ予測を評価する。
提案手法は, 自動構築と厳密な人的検証を組み合わせることで, 人的評価との整合性を確保する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z) - TaskWeaver: A Code-First Agent Framework [50.99683051759488]
TaskWeaverは、LLMで動く自律エージェントを構築するためのコードファーストフレームワークである。
ユーザ要求を実行可能なコードに変換し、ユーザ定義プラグインを呼び出し可能な関数として扱う。
リッチなデータ構造、フレキシブルなプラグイン利用、動的プラグイン選択のサポートを提供する。
論文 参考訳(メタデータ) (2023-11-29T11:23:42Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - Object as a Service (OaaS): Enabling Object Abstraction in Serverless
Clouds [2.0575037267955305]
我々は,Object as a Service (O)プログラミングとして知られる関数抽象化の上位に,新しい抽象化レベルを提案する。
Oはアプリケーションデータと機能をオブジェクトの抽象化にカプセル化し、開発者はリソースやデータ管理の負担を軽減します。
また、ソフトウェア再利用性、データのローカリティ、キャッシュなど、組み込み最適化機能の機会を開放する。
論文 参考訳(メタデータ) (2022-06-10T21:31:22Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。