論文の概要: AI for Distributed Systems Design: Scalable Cloud Optimization Through Repeated LLMs Sampling And Simulators
- arxiv url: http://arxiv.org/abs/2510.18897v1
- Date: Mon, 20 Oct 2025 16:10:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.219412
- Title: AI for Distributed Systems Design: Scalable Cloud Optimization Through Repeated LLMs Sampling And Simulators
- Title(参考訳): 分散システム設計のためのAI: 繰り返しLLMサンプリングとシミュレータによるスケーラブルクラウド最適化
- Authors: Jacopo Tagliabue,
- Abstract要約: 大規模言語モデルからのコード生成と決定論的検証をドメイン固有シミュレータで組み合わせ,AI駆動型分散システムポリシー設計について検討する。
複数のモデル間のスループット改善に関する予備的な結果を報告する。
我々は、AIが新しいシミュレータのブートストラップを支援することで、この方法論のスケールアップに不可欠であると推測する。
- 参考スコア(独自算出の注目度): 3.1594665317979698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore AI-driven distributed-systems policy design by combining stochastic code generation from large language models (LLMs) with deterministic verification in a domain-specific simulator. Using a Function-as-a-Service runtime (Bauplan) and its open-source simulator (Eudoxia) as a case study, we frame scheduler design as an iterative generate-and-verify loop: an LLM proposes a Python policy, the simulator evaluates it on standardized traces, and structured feedback steers subsequent generations. This setup preserves interpretability while enabling targeted search over a large design space. We detail the system architecture and report preliminary results on throughput improvements across multiple models. Beyond early gains, we discuss the limits of the current setup and outline next steps; in particular, we conjecture that AI will be crucial for scaling this methodology by helping to bootstrap new simulators.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)からの確率的コード生成と,ドメイン固有シミュレータにおける決定論的検証を組み合わせることで,AI駆動型分散システムポリシー設計について検討する。
関数・アズ・ア・サービス・ランタイム(Bauplan)とそのオープンソースシミュレータ(Eudoxia)をケーススタディとして、スケジューラ設計を反復生成・検証ループとしてフレーム化する。
この設定は、大きな設計空間を対象とする検索を可能にしながら、解釈可能性を維持する。
システムアーキテクチャを詳述し、複数のモデル間のスループット改善に関する予備的な結果を報告する。
アーリーゲイン以外にも、現在のセットアップの限界について議論し、次のステップを概説する。特に、新しいシミュレータのブートストラップを支援することで、AIがこの方法論のスケールアップに不可欠であると推測する。
関連論文リスト
- Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - HEAS: Hierarchical Evolutionary Agent Simulation Framework for Cross-Scale Modeling and Multi-Objective Search [4.807104001943257]
階層シミュレーションエージェント(Hierarchical Simulation Agent, HEAS)は、階層化されたエージェントベースのモデリングを進化的最適化とトーナメント評価で統合するPythonフレームワークである。
HEASは、共有コンテキストを読み書きする決定論的レイヤにスケジュールされた軽量プロセス(ストリーム)の階層としてモデルを表現する。
compact APIとCLIは、シングルオブジェクトとマルチオブジェクトの進化をシミュレートし、最適化し、評価します。
論文 参考訳(メタデータ) (2025-08-21T13:35:46Z) - ChronoLLM: Customizing Language Models for Physics-Based Simulation Code Generation [8.554484252096913]
オープンおよびクローズドソースの大規模言語モデル(LLM)の精細化とカスタマイズのためのフレームワークを提案する。
我々は、PyChrono仮想実験を実行するスクリプトを生成する上で、AIの力を利用する。
論文 参考訳(メタデータ) (2025-08-19T16:12:51Z) - AI-driven Orchestration at Scale: Estimating Service Metrics on National-Wide Testbeds [0.1497962813548524]
本稿では、ディープニューラルネットワーク(DNN)とNSアーキテクチャ内に埋め込まれた基本MLアルゴリズムを用いて、ネットワークスライシング予測モデルを用いて遅延を予測する大規模検証手法を提案する。
大規模な2つのテストベッド上でネットワークスライスとしてデプロイされる分散データベースアプリケーションを考慮して、異なるDNNとMLアルゴリズムのパフォーマンスを測定し、比較する。
論文 参考訳(メタデータ) (2025-07-21T21:24:40Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Automatic AI Model Selection for Wireless Systems: Online Learning via Digital Twinning [50.332027356848094]
AIベースのアプリケーションは、スケジューリングや電力制御などの機能を実行するために、インテリジェントコントローラにデプロイされる。
コンテキストとAIモデルのパラメータのマッピングは、ゼロショット方式で理想的に行われる。
本稿では,AMSマッピングのオンライン最適化のための一般的な手法を紹介する。
論文 参考訳(メタデータ) (2024-06-22T11:17:50Z) - LLM experiments with simulation: Large Language Model Multi-Agent System for Simulation Model Parametrization in Digital Twins [4.773175285216063]
本稿では,大規模言語モデル(LLM)を適用し,デジタル双生児におけるシミュレーションモデルのパラメトリゼーションを自動化する新しいフレームワークを提案する。
提案手法は,LLMの知識を取り入れたシミュレーションモデルのユーザビリティを向上させる。
このシステムは、ユーザのフレンドリさを高め、人間のユーザの認知負荷を軽減する可能性がある。
論文 参考訳(メタデータ) (2024-05-28T11:59:40Z) - Towards Single-System Illusion in Software-Defined Vehicles -- Automated, AI-Powered Workflow [3.2821049498759094]
本稿では,車載ソフトウェアシステムの開発における,新しいモデルと特徴に基づくアプローチを提案する。
提案されたアプローチの重要なポイントの1つは、近代的な生成AI、特にLarge Language Models(LLM)の導入である。
その結果、パイプラインは広範囲に自動化され、各ステップでフィードバックが生成される。
論文 参考訳(メタデータ) (2024-03-21T15:07:57Z) - Amortizing intractable inference in large language models [56.92471123778389]
難治性後部分布のサンプルとして, 償却ベイズ推定を用いる。
我々は,LLMファインチューニングの分散マッチングパラダイムが,最大習熟の代替となることを実証的に実証した。
重要な応用として、チェーン・オブ・ソート推論を潜在変数モデリング問題として解釈する。
論文 参考訳(メタデータ) (2023-10-06T16:36:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。