論文の概要: Laminar: A New Serverless Stream-based Framework with Semantic Code
Search and Code Completion
- arxiv url: http://arxiv.org/abs/2309.00584v1
- Date: Fri, 1 Sep 2023 17:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-04 12:49:37.225285
- Title: Laminar: A New Serverless Stream-based Framework with Semantic Code
Search and Code Completion
- Title(参考訳): laminar: セマンティックコード検索とコード補完を備えた、新しいサーバレスストリームベースのフレームワーク
- Authors: Zaynab Zahra, Zihao Li, Rosa Filgueira
- Abstract要約: Laminarは、並列ストリームベースのデータフローライブラリであるDispel4pyをベースにした、新しいサーバレスフレームワークである。
Laminarは専用のレジストリを通じてストリーミングとコンポーネントを効率的に管理し、サーバレスエクスペリエンスを提供する。
- 参考スコア(独自算出の注目度): 7.292771695228123
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces Laminar, a novel serverless framework based on
dispel4py, a parallel stream-based dataflow library. Laminar efficiently
manages streaming workflows and components through a dedicated registry,
offering a seamless serverless experience. Leveraging large lenguage models,
Laminar enhances the framework with semantic code search, code summarization,
and code completion. This contribution enhances serverless computing by
simplifying the execution of streaming computations, managing data streams more
efficiently, and offering a valuable tool for both researchers and
practitioners.
- Abstract(参考訳): 本稿では、並列ストリームベースのデータフローライブラリであるdispel4pyに基づく、新しいサーバレスフレームワークであるLaminarを紹介する。
laminarは専用のレジストリを通じてストリーミングワークフローとコンポーネントを効率的に管理し、シームレスなサーバレスエクスペリエンスを提供する。
大規模な言語モデルを活用することで、Laminarはセマンティックコード検索、コードの要約、コード補完によってフレームワークを強化する。
この貢献は、ストリーミング計算の実行を単純化し、データストリームをより効率的に管理し、研究者と実践者の両方に価値のあるツールを提供することによって、サーバレスコンピューティングを強化する。
関連論文リスト
- OpenCoder: The Open Cookbook for Top-Tier Code Large Language Models [70.72097493954067]
コードのための大規模言語モデル(LLM)は、コード生成、推論タスク、エージェントシステムなど、さまざまな領域で必須になっている。
オープンアクセスのコード LLM はプロプライエタリなモデルの性能レベルに近づきつつあるが、高品質なコード LLM は依然として限られている。
トップクラスのコードLLMであるOpenCoderは、主要なモデルに匹敵するパフォーマンスを達成するだけでなく、研究コミュニティの"オープンクックブック"としても機能します。
論文 参考訳(メタデータ) (2024-11-07T17:47:25Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorFBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorFEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することができることを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - StreamBench: Towards Benchmarking Continuous Improvement of Language Agents [63.54557575233165]
大規模言語モデル(LLM)エージェントは、経験から自分自身を改善することができる。
本稿では,LLMエージェントの入力フィードバックシーケンスに対する継続的な改善を評価するためのベンチマークであるStreamBenchを紹介する。
我々の研究は、LLMの効果的なオンライン学習戦略開発への一歩として役立ち、ストリーミングシナリオにおけるより適応的なAIシステムへの道を開いた。
論文 参考訳(メタデータ) (2024-06-13T02:08:28Z) - ShuffleBench: A Benchmark for Large-Scale Data Shuffling Operations with
Distributed Stream Processing Frameworks [1.4374467687356276]
本稿では、最新のストリーム処理フレームワークの性能を評価するための新しいベンチマークであるShuffleBenchを紹介する。
ShuffleBenchは、大規模なクラウドオブザーバビリティプラットフォームのほぼリアルタイム分析の要件にインスパイアされている。
その結果,Herzelcastは低レイテンシでデータストリームを処理するのに対して,Flinkは最高スループットを実現していることがわかった。
論文 参考訳(メタデータ) (2024-03-07T15:06:24Z) - Fast Chain-of-Thought: A Glance of Future from Parallel Decoding Leads to Answers Faster [61.83949316226113]
FastCoTは並列デコーディングに基づくモデルに依存しないフレームワークである。
我々は、FastCoTが通常のアプローチと比較して、無視できる性能低下だけで、推論時間を20%近く削減できることを示します。
論文 参考訳(メタデータ) (2023-11-14T15:56:18Z) - Pathway: a fast and flexible unified stream data processing framework
for analytical and Machine Learning applications [7.850979932441607]
Pathwayは新しい統一データ処理フレームワークで、バウンドとアンバウンドのデータストリームの両方でワークロードを実行できる。
本稿では,本システムについて述べるとともに,バッチとストリーミングの両コンテキストにおいて,その性能を示すベンチマーク結果を示す。
論文 参考訳(メタデータ) (2023-07-12T08:27:37Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Learning Context-Aware Service Representation for Service Recommendation
in Workflow Composition [6.17189383632496]
本稿では,ワークフロー開発プロセス全体でのサービス推奨に対して,NLPにインスパイアされた新たなアプローチを提案する。
ワークフロー構成プロセスは、ステップワイドでコンテキスト対応のサービス生成手順として形式化される。
サービス埋め込みは、NLPフィールドからディープラーニングモデルを適用することで学習される。
論文 参考訳(メタデータ) (2022-05-24T04:18:01Z) - Collaborative Learning for Faster StyleGAN Embedding [127.84690280196597]
本稿では,効率的な埋め込みネットワークと最適化に基づくイテレータからなる新しい協調学習フレームワークを提案する。
埋め込みネットワークを1つのフォワードパスで効率よく高品質の潜伏コードを得ることができる。
論文 参考訳(メタデータ) (2020-07-03T15:27:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。