論文の概要: Multi-Objectivizing Software Configuration Tuning (for a single
performance concern)
- arxiv url: http://arxiv.org/abs/2106.01331v1
- Date: Mon, 31 May 2021 03:03:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-05 13:48:57.263425
- Title: Multi-Objectivizing Software Configuration Tuning (for a single
performance concern)
- Title(参考訳): マルチ目的のソフトウェア構成チューニング(単一パフォーマンス上の問題)
- Authors: Tao Chen and Miqing Li
- Abstract要約: 補助的な性能目標を考慮したメタ目的化モデル(MMO)を提案する。
我々のモデルは,局所最適性を克服する上で,最先端の単目的モデルよりも統計的に有効である。
- 参考スコア(独自算出の注目度): 7.285442358509729
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatically tuning software configuration for optimizing a single
performance attribute (e.g., minimizing latency) is not trivial, due to the
nature of the configuration systems (e.g., complex landscape and expensive
measurement). To deal with the problem, existing work has been focusing on
developing various effective optimizers. However, a prominent issue that all
these optimizers need to take care of is how to avoid the search being trapped
in local optima -- a hard nut to crack for software configuration tuning due to
its rugged and sparse landscape, and neighboring configurations tending to
behave very differently. Overcoming such in an expensive measurement setting is
even more challenging. In this paper, we take a different perspective to tackle
this issue. Instead of focusing on improving the optimizer, we work on the
level of optimization model. We do this by proposing a meta
multi-objectivization model (MMO) that considers an auxiliary performance
objective (e.g., throughput in addition to latency). What makes this model
unique is that we do not optimize the auxiliary performance objective, but
rather use it to make similarly-performing while different configurations less
comparable (i.e. Pareto nondominated to each other), thus preventing the search
from being trapped in local optima.
Experiments on eight real-world software systems/environments with diverse
performance attributes reveal that our MMO model is statistically more
effective than state-of-the-art single-objective counterparts in overcoming
local optima (up to 42% gain), while using as low as 24% of their measurements
to achieve the same (or better) performance result.
- Abstract(参考訳): 単一パフォーマンス特性(例えばレイテンシの最小化)を最適化するためのソフトウェア構成の自動チューニングは、構成システムの性質(複雑な景観や高価な計測など)のために簡単ではない。
この問題に対処するため、既存の作業は様々な効果的な最適化を開発することに注力している。
しかし、これらのオプティマイザがすべてに対処する必要がある顕著な問題は、検索がローカルのオプティマに閉じ込められるのを避ける方法だ。
高価な測定環境でこれを乗り越えることは、さらに難しい。
本稿では,この問題に対処するための視点を異にする。
最適化モデルの改善に注力する代わりに、最適化モデルのレベルに取り組んでいます。
我々は、補助的なパフォーマンス目標(例えばレイテンシに加えてスループット)を考慮したメタ多目的化モデル(MMO)を提案する。
このモデルがユニークなのは、補助パフォーマンスの目標を最適化するのではなく、異なる構成(例えば)に比較しない場合に、同じようなパフォーマンスを実現するために使用することです。
Paretoは互いに支配的ではないため、探索が局所的なオプティマに閉じ込められるのを防ぐ。
8つの実世界のソフトウェアシステム/環境における多様なパフォーマンス特性の実験により、我々のmmoモデルは、ローカルのオプティマ(最大42%の利得)を克服する上で、最先端の単一目的のモデルよりも統計的に効果的であることが分かりました。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Adapting Multi-objectivized Software Configuration Tuning [6.42475226408675]
本稿では,AdMMOと呼ばれる重み適応手法を提案する。
私たちのキーとなるアイデアは、チューニング中に適切なタイミングで重みを適応的に調整し、非支配的な構成のかなりの割合を維持できるようにすることです。
論文 参考訳(メタデータ) (2024-04-06T22:08:09Z) - Controllable Prompt Tuning For Balancing Group Distributional Robustness [53.336515056479705]
グループ間で優れたパフォーマンスを実現するための最適化スキームを導入し、それらの性能を著しく犠牲にすることなく、全員に良い解決策を見出す。
本稿では,制御可能なプロンプトチューニング(CPT)を提案する。
突発的相関ベンチマークでは, 変換器と非変換器の両アーキテクチャ, および非モーダルおよびマルチモーダルデータにまたがって, 最先端の結果が得られた。
論文 参考訳(メタデータ) (2024-03-05T06:23:55Z) - Judging Adam: Studying the Performance of Optimization Methods on ML4SE
Tasks [2.8961929092154697]
ソースコードの深層学習モデルを用いて各種の性能を検証した。
Anaheadの選択は、モデルの品質に大きな影響を与えます。
ML4SEコミュニティは、コード関連のディープラーニングタスクのデフォルトとして、Adamを使うべきだ、と提案する。
論文 参考訳(メタデータ) (2023-03-06T22:49:20Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - MMO: Meta Multi-Objectivization for Software Configuration Tuning [5.716481441755875]
補助的な性能目標を考慮したメタ多目的化(MMO)モデルを提案する。
重みを気にせずにMMOモデルを効果的に活用する方法を示す。
論文 参考訳(メタデータ) (2021-12-14T11:21:24Z) - Bayesian Optimization for Selecting Efficient Machine Learning Models [53.202224677485525]
本稿では,予測効率とトレーニング効率の両面において,モデルを協調最適化するための統一ベイズ最適化フレームワークを提案する。
レコメンデーションタスクのためのモデル選択の実験は、この方法で選択されたモデルがモデルのトレーニング効率を大幅に改善することを示している。
論文 参考訳(メタデータ) (2020-08-02T02:56:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。