論文の概要: Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing
- arxiv url: http://arxiv.org/abs/2601.09282v1
- Date: Wed, 14 Jan 2026 08:36:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.337373
- Title: Cluster Workload Allocation: Semantic Soft Affinity Using Natural Language Processing
- Title(参考訳): クラスタ・ワークロード・アロケーション:自然言語処理を用いたセマンティック・ソフト親和性
- Authors: Leszek Sliwko, Jolanta Mizeria-Pietraszko,
- Abstract要約: 本稿では,自然言語処理を用いたクラスタシステムのためのセマンティックな意図駆動型スケジューリングパラダイムを提案する。
このシステムは、スケジューラ拡張子を介して統合されたLarge Language Cluster Model (LLM)を使用して、ソフトアフィニティの好みに対する自然言語アロケーションヒントアノテーションを解釈する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cluster workload allocation often requires complex configurations, creating a usability gap. This paper introduces a semantic, intent-driven scheduling paradigm for cluster systems using Natural Language Processing. The system employs a Large Language Model (LLM) integrated via a Kubernetes scheduler extender to interpret natural language allocation hint annotations for soft affinity preferences. A prototype featuring a cluster state cache and an intent analyzer (using AWS Bedrock) was developed. Empirical evaluation demonstrated high LLM parsing accuracy (>95% Subset Accuracy on an evaluation ground-truth dataset) for top-tier models like Amazon Nova Pro/Premier and Mistral Pixtral Large, significantly outperforming a baseline engine. Scheduling quality tests across six scenarios showed the prototype achieved superior or equivalent placement compared to standard Kubernetes configurations, particularly excelling in complex and quantitative scenarios and handling conflicting soft preferences. The results validate using LLMs for accessible scheduling but highlight limitations like synchronous LLM latency, suggesting asynchronous processing for production readiness. This work confirms the viability of semantic soft affinity for simplifying workload orchestration.
- Abstract(参考訳): クラスタのワークロード割り当ては複雑な設定を必要とすることが多く、ユーザビリティのギャップが生じる。
本稿では,自然言語処理を用いたクラスタシステムのためのセマンティックな意図駆動型スケジューリングパラダイムを提案する。
このシステムは、Kubernetesスケジューラ拡張を通じて統合されたLarge Language Model(LLM)を使用して、ソフトアフィニティ設定のための自然言語アロケーションヒントアノテーションを解釈する。
クラスタ状態キャッシュとインテントアナライザ(AWS Bedrockを使用)を備えたプロトタイプが開発された。
実験による評価では,Amazon Nova Pro/PremierやMistral Pixtral Largeといった上位モデルのLLM解析精度が,ベースラインエンジンよりも大幅に向上した。
6つのシナリオにわたる品質テストのスケジューリングにより、プロトタイプは標準的なKubernetes構成よりも優れた、あるいは同等の配置を達成した。
その結果、LLMをアクセス可能なスケジューリングに使用するが、同期LLMレイテンシのような制限を強調し、プロダクションの準備が整うための非同期処理を提案する。
この研究は、ワークロードのオーケストレーションを簡単にするためのセマンティックなソフトアフィニティの実現性を確認します。
関連論文リスト
- A Semantic Parsing Framework for End-to-End Time Normalization [10.472379345636845]
時間正規化は、自然言語の時間表現を機械可読表現に変換するタスクである。
ISO-TimeMLスキーマの制限表現に基づく従来のシステム。
SCATEフレームワークを基盤としたコード生成タスクとして,時間正規化の新たな定式化を導入する。
論文 参考訳(メタデータ) (2025-07-08T23:30:11Z) - Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - The ICL Consistency Test [14.569770617709073]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)のようなプロンプトベースの手法によってタスクに適応する。
素早い学習における一貫性の欠如は、堅牢な一般化の欠如を示唆している。
ここでは ICL 一貫性テストを紹介します -- GenBench 共同ベンチマークタスク (CBT) へのコントリビューションです。
論文 参考訳(メタデータ) (2023-12-08T10:22:43Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Mixture of Soft Prompts for Controllable Data Generation [21.84489422361048]
直接予測ではなく,データ拡張のためのツールとして,ソフトプロンプトの混合(MSP)を提案する。
提案手法は, 強いベースラインと比較した場合の3つのベンチマークに対して, 最先端の結果を得る。
論文 参考訳(メタデータ) (2023-03-02T21:13:56Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。