論文の概要: SlsReuse: LLM-Powered Serverless Function Reuse
- arxiv url: http://arxiv.org/abs/2511.17262v1
- Date: Fri, 21 Nov 2025 14:08:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.057286
- Title: SlsReuse: LLM-Powered Serverless Function Reuse
- Title(参考訳): SlsReuse: LLMで動くサーバレス関数の再利用
- Authors: Jinfeng Wen, Yuehan Sun,
- Abstract要約: 本稿では、サーバーレス関数の再利用のための最初のLLMフレームワークであるSlsReuseについて述べる。
効果的なプロンプトエンジニアリングを通じて、不均一関数の統一意味強調表現を学ぶ。
最も代表的なLCMの一つであるChatGPT-4o上に構築されたSlsReuseはRecall@10の91.20%を達成し、最先端のベースラインを24.53ポイント上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Serverless computing has rapidly emerged as a popular cloud computing paradigm. It enables developers to implement function-level tasks, i.e., serverless functions, without managing infrastructure. While reducing operational overhead, it poses challenges, especially for novice developers. Developing functions from scratch requires adapting to heterogeneous, platform-specific programming styles, making the process time-consuming and error-prone. Function reuse offers a promising solution to address these challenges. However, research on serverless computing lacks a dedicated approach for function recommendation. Existing techniques from traditional contexts remain insufficient due to the semantic gap between task descriptions and heterogeneous function implementations. Advances in large language models (LLMs), pre-trained on large-scale corpora, create opportunities to bridge this gap by aligning developer requirements with function semantics. This paper presents SlsReuse, the first LLM-powered framework for serverless function reuse. Specifically, SlsReuse first constructs a reusable function repository serving as a foundational knowledge base. Then, it learns unified semantic-enhanced representations of heterogeneous functions through effective prompt engineering with few-shot prompting, capturing implicit code intent, target platforms, programming languages, and cloud services. Finally, given a natural language task query, SlsReuse performs intent-aware discovery combined with a multi-level pruning strategy and similarity matching. We evaluate SlsReuse on a curated dataset of 110 task queries. Built on ChatGPT-4o, one of the most representative LLMs, SlsReuse achieves Recall@10 of 91.20%, exceeding the state-of-the-art baseline by 24.53 percentage points.
- Abstract(参考訳): サーバレスコンピューティングは,クラウドコンピューティングのパラダイムとして急速に普及しています。
インフラストラクチャを管理することなく、開発者が関数レベルのタスク、すなわちサーバレス関数を実装することができる。
運用上のオーバーヘッドを削減しながら、特に初心者開発者にとっては、問題が発生します。
スクラッチから関数を開発するには、不均一でプラットフォーム固有のプログラミングスタイルに適応する必要がある。
関数再利用はこれらの課題に対処するための有望なソリューションを提供する。
しかしながら、サーバレスコンピューティングの研究には、関数レコメンデーションのための専用のアプローチが欠けている。
タスク記述と異種関数の実装の間に意味的なギャップがあるため、従来の文脈からの既存のテクニックは依然として不十分である。
大規模コーパスで事前トレーニングされた大規模言語モデル(LLM)の進歩は、開発者要求と関数セマンティクスを整合させることで、このギャップを埋める機会を生み出す。
本稿では、サーバーレス関数の再利用のための最初のLLMフレームワークであるSlsReuseについて述べる。
具体的には、SlsReuseはまず、基本的な知識基盤として機能する再利用可能な関数リポジトリを構築します。
そして、暗黙的なコードインテント、ターゲットプラットフォーム、プログラミング言語、クラウドサービスをキャプチャして、効果的なプロンプトエンジニアリングを通じて、異種関数の統一的なセマンティックエンハンスメントを学習する。
最後に、自然言語タスククエリが与えられた場合、SlsReuseは、多レベルプルーニング戦略と類似性マッチングを組み合わせたインテント認識ディスカバリを実行する。
110のタスククエリのキュレートされたデータセット上でSlsReuseを評価する。
最も代表的なLCMの一つであるChatGPT-4o上に構築されたSlsReuseはRecall@10の91.20%を達成し、最先端のベースラインを24.53ポイント上回っている。
関連論文リスト
- OpenLambdaVerse: A Dataset and Analysis of Open-Source Serverless Applications [0.6215404942415159]
OpenLambdaVerseは、1つ以上のLambda関数を含むアプリケーションでServerless Frameworkを使用するGitHubリポジトリのデータセットである。
現在のアプリケーションのサイズや複雑さ、採用言語や言語、機能がどのように起動されるか、プロジェクトの成熟度、セキュリティプラクティスについて、重要な洞察を得ています。
論文 参考訳(メタデータ) (2025-08-02T21:30:01Z) - Small Models, Big Tasks: An Exploratory Empirical Study on Small Language Models for Function Calling [6.102559098873098]
関数呼び出しは、情報検索、ソフトウェア工学、自動化といった分野に広く応用される複雑なタスクである。
LLM(Large Language Models)はこのプロセスを自動化できるが、計算コストが高く、リソース制約のある環境では実用的ではない。
小型言語モデル(SLM)は効率よく動作し、応答時間を短縮し、計算要求を低減できる。
論文 参考訳(メタデータ) (2025-04-27T15:26:51Z) - Improving Small-Scale Large Language Models Function Calling for Reasoning Tasks [0.8425561594225592]
本研究では,関数呼び出しにおいて,より小さな言語モデルを訓練するための新しいフレームワークを提案する。
特定の論理的および数学的推論タスクに焦点を当てている。
このアプローチは,関数呼び出しによるこれらのタスクの小型モデルの性能向上を目的としている。
論文 参考訳(メタデータ) (2024-10-24T16:27:35Z) - Granite-Function Calling Model: Introducing Function Calling Abilities via Multi-task Learning of Granular Tasks [35.97890508648945]
我々はApache 2.0ライセンスの下で-20B-FUNCTIONCALLINGモデルを紹介します。
モデルは7つの基本的なタスクに対してマルチタスクトレーニングアプローチを使用してトレーニングされる。
20B-FUNCTIONCALLINGは、7つの異なる評価データセットにおいて、複数のタスクに対してより一般化可能であることを示す。
論文 参考訳(メタデータ) (2024-06-27T17:47:26Z) - BigCodeBench: Benchmarking Code Generation with Diverse Function Calls and Complex Instructions [72.56339136017759]
BigCodeBenchは、大規模言語モデル(LLM)に対して、139のライブラリと7つのドメインから1140のきめ細かいタスクに対して、複数の関数呼び出しをツールとして呼び出すためのベンチマークである。
評価の結果,LLMは機能コールを正確に使用するための複雑な指示に従うことができず,スコアは最大60%,人的性能は97%と極めて低いことがわかった。
そこで本研究では,BigCodeBench-Instructという自然言語指向の変種を提案する。
論文 参考訳(メタデータ) (2024-06-22T15:52:04Z) - Memory Sharing for Large Language Model based Agents [43.53494041932615]
本稿では,リアルタイムメモリフィルタ,ストレージ,検索を統合し,In-Context学習プロセスを強化するためのフレームワークであるMemory Sharingを紹介する。
実験の結果,MSフレームワークはオープンな質問に対処する際のエージェントの性能を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-04-15T17:57:30Z) - TaskWeaver: A Code-First Agent Framework [50.99683051759488]
TaskWeaverは、LLMで動く自律エージェントを構築するためのコードファーストフレームワークである。
ユーザ要求を実行可能なコードに変換し、ユーザ定義プラグインを呼び出し可能な関数として扱う。
リッチなデータ構造、フレキシブルなプラグイン利用、動的プラグイン選択のサポートを提供する。
論文 参考訳(メタデータ) (2023-11-29T11:23:42Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。