論文の概要: Prompting for Performance: Exploring LLMs for Configuring Software
- arxiv url: http://arxiv.org/abs/2507.09790v1
- Date: Sun, 13 Jul 2025 21:05:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.980881
- Title: Prompting for Performance: Exploring LLMs for Configuring Software
- Title(参考訳): パフォーマンス向上のためのプロンプト - ソフトウェア構成のためのLLMを探る
- Authors: Helge Spieker, Théo Matricon, Nassim Belmecheri, Jørn Eirik Betten, Gauthier Le Bartz Lyan, Heraldo Borges, Quentin Mazouni, Dennis Gross, Arnaud Gotlieb, Mathieu Acher,
- Abstract要約: 大規模言語モデル(LLM)は、プロンプトを通じてパフォーマンス指向のソフトウェア構成を支援する。
タスク上でのLCMの評価には、関連するオプションの特定、設定のランク付け、各種システム間のパフォーマンス設定の推奨などが含まれる。
- 参考スコア(独自算出の注目度): 10.764205218438759
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software systems usually provide numerous configuration options that can affect performance metrics such as execution time, memory usage, binary size, or bitrate. On the one hand, making informed decisions is challenging and requires domain expertise in options and their combinations. On the other hand, machine learning techniques can search vast configuration spaces, but with a high computational cost, since concrete executions of numerous configurations are required. In this exploratory study, we investigate whether large language models (LLMs) can assist in performance-oriented software configuration through prompts. We evaluate several LLMs on tasks including identifying relevant options, ranking configurations, and recommending performant configurations across various configurable systems, such as compilers, video encoders, and SAT solvers. Our preliminary results reveal both positive abilities and notable limitations: depending on the task and systems, LLMs can well align with expert knowledge, whereas hallucinations or superficial reasoning can emerge in other cases. These findings represent a first step toward systematic evaluations and the design of LLM-based solutions to assist with software configuration.
- Abstract(参考訳): ソフトウェアシステムは通常、実行時間、メモリ使用量、バイナリサイズ、ビットレートなどのパフォーマンス指標に影響を与える可能性のある多数の設定オプションを提供します。
一方、情報的な意思決定は困難で、オプションと組み合わせにドメインの専門知識が必要です。
一方、機械学習技術は膨大な構成空間を探索することができるが、多数の構成の具体的な実行を必要とするため、計算コストが高い。
本研究では,大規模言語モデル (LLM) が性能指向のソフトウェア構成をプロンプトによって支援できるかどうかを考察する。
我々は、関連するオプションの特定、設定のランク付け、コンパイラ、ビデオエンコーダ、SATソルバなど、さまざまな構成可能なシステムにおけるパフォーマンス設定の推奨など、タスク上の複数のLCMを評価した。
課題やシステムによっては、LLMは専門家の知識とよく一致するが、幻覚や表面的推論は別のケースで現れる。
これらの結果は、ソフトウェア構成を支援するLCMベースのソリューションの体系的評価と設計に向けた第一歩である。
関連論文リスト
- Oracular Programming: A Modular Foundation for Building LLM-Enabled Software [5.294604210205507]
大規模な言語モデルは、少数の例から幅広いタスクを解くのに驚くほど効果的であることが証明された。
信頼性とモジュラリティの欠如は、多くの推論ステップを必要とする大きな問題に対処する能力を制限する。
ドメインの専門家が高レベルな問題解決戦略を表現できるようにLCM対応アプリケーションを構築するための基礎パラダイムである分子プログラミングを提案する。
論文 参考訳(メタデータ) (2025-02-07T20:24:43Z) - LLM-Inference-Bench: Inference Benchmarking of Large Language Models on AI Accelerators [1.1028525384019312]
LLM(Large Language Models)は、複数のドメインにまたがる画期的な進歩を推進し、テキスト生成アプリケーションに一般的に使われている。
LLMのハードウェア推論性能を評価するための総合ベンチマークスイートであるLLM-Inference-Benchを紹介する。
ベンチマークの結果、さまざまなモデル、ハードウェアプラットフォーム、推論フレームワークの長所と短所が明らかになりました。
論文 参考訳(メタデータ) (2024-10-31T18:34:59Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - MouSi: Poly-Visual-Expert Vision-Language Models [132.58949014605477]
本稿では,個々の視覚エンコーダの能力の相乗化にアンサンブルエキスパート技術を用いることを提案する。
この技術は、異なる視覚専門家の出力の処理を統一する融合ネットワークを導入する。
本実装では,SAMなどのモデルにおける位置占有率を,実質的な4096からより効率的で管理可能な64,さらには1。
論文 参考訳(メタデータ) (2024-01-30T18:09:11Z) - Can LLMs Configure Software Tools [0.76146285961466]
ソフトウェア工学では、複雑なシステム内での最適なパフォーマンスを確保するためには、ソフトウェアツールの精巧な構成が不可欠である。
本研究では,Large-Language Models (LLMs) を利用したソフトウェア構成プロセスの合理化について検討する。
本研究は,Chat-GPTなどのLCMを用いて,開始条件を特定し,検索空間を狭め,構成効率を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T05:03:02Z) - Dissecting the Runtime Performance of the Training, Fine-tuning, and
Inference of Large Language Models [26.2566707495948]
大規模言語モデル(LLM)は、学術と産業の両方で大きく進歩している。
我々は,事前学習,微調整,LLMを異なるサイズで提供する場合のエンドツーエンド性能をベンチマークする。
次に,LLMにおける計算処理や通信演算子など,サブモジュールの詳細なランタイム解析を行う。
論文 参考訳(メタデータ) (2023-11-07T03:25:56Z) - CRAFT: Customizing LLMs by Creating and Retrieving from Specialized
Toolsets [75.64181719386497]
大規模言語モデル(LLM)のためのツール作成・検索フレームワークであるCRAFTを提案する。
タスク用に特別にキュレートされたツールセットを作成し、複雑なタスクを解決する能力を高めるためにこれらのセットからツールを取得するコンポーネントをLLMに装備する。
本手法はフレキシブルに設計されており,既製のLCMを細かな調整なしに未確認領域やモダリティに適応するためのプラグアンドプレイ方式を提供する。
論文 参考訳(メタデータ) (2023-09-29T17:40:26Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - CREATOR: Tool Creation for Disentangling Abstract and Concrete Reasoning of Large Language Models [74.22729793816451]
大規模言語モデル(LLM)はツールの利用において大きな進歩を遂げているが、その能力はAPIの可用性によって制限されている。
我々は、LCMがドキュメンテーションとコード実現を使って独自のツールを作成できる新しいフレームワークCREATORを提案する。
我々は,MATH と TabMWP のベンチマークで CREATOR を評価する。
論文 参考訳(メタデータ) (2023-05-23T17:51:52Z) - LONViZ: Unboxing the black-box of Configurable Software Systems from a
Complex Networks Perspective [9.770775293243934]
本稿では,ブラックボックス構成ソフトウェアシステムの探索解析を容易にするツールであるLONViZを提案する。
実験では、42の異なる実行環境下でベンチマークプラットフォームを開発するために、広く使われている4つの実世界のソフトウェアシステムを選択した。
LONViZは定性的かつ定量的な分析を可能にし、様々な興味深い隠れパターンやソフトウェアシステムの特性を明らかにする。
論文 参考訳(メタデータ) (2022-01-05T03:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。