論文の概要: CoTune: Co-evolutionary Configuration Tuning
- arxiv url: http://arxiv.org/abs/2509.24694v1
- Date: Mon, 29 Sep 2025 12:27:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.971016
- Title: CoTune: Co-evolutionary Configuration Tuning
- Title(参考訳): CoTune: 共進化的構成チューニング
- Authors: Gangda Xiong, Tao Chen,
- Abstract要約: CoTuneは、目標とするパフォーマンス要件に関する情報を、共進化を通じて考慮するツールである。
162のケース(9つのシステムと18の要件)の実験結果から、CoTuneは既存のチューナーよりもかなり優れていることが判明した。
- 参考スコア(独自算出の注目度): 4.208654120634349
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To automatically tune configurations for the best possible system performance (e.g., runtime or throughput), much work has been focused on designing intelligent heuristics in a tuner. However, existing tuner designs have mostly ignored the presence of complex performance requirements (e.g., the latency shall ideally be 2 seconds), but simply assume that better performance is always more preferred. This would not only waste valuable information in a requirement but might also consume extensive resources to tune for a goal with little gain. Yet, prior studies have shown that simply incorporating the requirement as a tuning objective is problematic since the requirement might be too strict, harming convergence; or its highly diverse satisfactions might lead to premature convergence. In this paper, we propose CoTune, a tool that takes the information of a given target performance requirement into account through co-evolution. CoTune is unique in the sense that it creates an auxiliary performance requirement to be co-evolved with the configurations, which assists the target performance requirement when it becomes ineffective or even misleading, hence allowing the tuning to be guided by the requirement while being robust to its harm. Experiment results on 162 cases (nine systems and 18 requirements) reveal that CoTune considerably outperforms existing tuners, ranking as the best for 90% cases (against the 0%--35% for other tuners) with up to 2.9x overall improvements, while doing so under a much better efficiency.
- Abstract(参考訳): 最高のシステムパフォーマンス(例えば、ランタイムやスループット)のために設定を自動的に調整するために、多くの作業がチューナーでインテリジェントなヒューリスティックを設計することに集中しています。
しかし、既存のチューナー設計では、複雑なパフォーマンス要件(例えば、遅延は理想的には2秒)の存在をほとんど無視しているが、単により良いパフォーマンスが常に好ましいと仮定する。
これは、要求に価値ある情報を浪費するだけでなく、ほとんど利益を得ずに目標を調整するために広範囲のリソースを消費する可能性がある。
しかし、以前の研究では、要求が厳密で収束を損なう可能性があり、あるいは非常に多様な満足度が早々に収束する可能性があるため、単にチューニング目的として要件を組み込むことが問題となることが示されている。
本稿では,CoTuneを提案する。CoTuneは,目標性能要件に関する情報を共進化によって考慮したツールである。
CoTuneは、設定と共進化する補助的なパフォーマンス要件を作成するという意味でユニークなもので、非効率になったり、あるいは誤解を招くような場合に、ターゲットのパフォーマンス要求を補助する。
162のケース(9つのシステムと18の要件)に対する実験の結果、CoTuneは既存のチューナーよりもかなり優れており、90%のケース(他のチューナーでは0%から35%)で最高にランクされ、全体的な改善は2.9倍に向上した。
関連論文リスト
- GroupTuner: Efficient Group-Aware Compiler Auto-Tuning [14.545919877837436]
GroupTunerは、歴史的に最高のパフォーマンスの組み合わせに基づいて、コヒーレントオプショングループに局所突然変異を適用するグループ認識自動チューニング技術である。
実験によると、GroupTunerは競争力のあるオプションの組み合わせを効率的に発見でき、平均性能は-O3よりも12.39%向上している。
論文 参考訳(メタデータ) (2025-05-13T14:13:38Z) - Partial Fine-Tuning: A Successor to Full Fine-Tuning for Vision
Transformers [50.23439411530435]
部分微調整は、効率と精度を同時に向上できる革新的で有望な方向であることを示す。
部分的な微調整のための適切な層の選択を導くための,新しい微調整角度測定法を提案する。
広範囲のデータセットとモデルに関する包括的な実験は、部分的な微調整の大きな可能性を検証する。
論文 参考訳(メタデータ) (2023-12-25T10:11:34Z) - Towards General and Efficient Online Tuning for Spark [55.30868031221838]
本稿では,3つの問題を同時に処理できる汎用的で効率的なSparkチューニングフレームワークを提案する。
我々は、このフレームワークを独立したクラウドサービスとして実装し、Tencentのデータプラットフォームに適用しました。
論文 参考訳(メタデータ) (2023-09-05T02:16:45Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - PTP: Boosting Stability and Performance of Prompt Tuning with
Perturbation-Based Regularizer [94.23904400441957]
損失景観を平滑化できる摂動型正規化器を即時チューニングに導入する。
我々は乱数ノイズベースと逆数ベースを含む2種類の摂動型正規化器を設計する。
我々の新しいアルゴリズムは,SuperGLUEベンチマークとFewGLUEベンチマークでそれぞれ1.94%,2.34%の最先端のプロンプトチューニング手法を改善した。
論文 参考訳(メタデータ) (2023-05-03T20:30:51Z) - Do Performance Aspirations Matter for Guiding Software Configuration
Tuning? [6.492599077364121]
そこで本研究では,アスピレーションの現実主義が,チューニングの指導に使用すべきかどうかを決定する鍵となる要素であることを示す。
利用可能なチューニング予算は、願望の選択にも影響を及ぼすが、現実的ではない。
論文 参考訳(メタデータ) (2023-01-09T12:11:05Z) - P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally
Across Scales and Tasks [17.93703302601565]
本稿では,広範囲のモデルスケールとNLUタスクにおいて,適切に最適化されたプロンプトチューニングが普遍的に有効であることを示す。
我々は、P-Tuning v2がファインチューニングの代替となり、将来の研究の強力なベースラインになると考えている。
論文 参考訳(メタデータ) (2021-10-14T17:58:47Z) - Amortized Auto-Tuning: Cost-Efficient Transfer Optimization for
Hyperparameter Recommendation [83.85021205445662]
本稿では,機械学習モデルのチューニングを高速化する自動チューニング(AT2)を提案する。
マルチタスクマルチ忠実ベイズ最適化フレームワークの徹底的な解析を行い、最適なインスタンス化-アモータイズ自動チューニング(AT2)を実現する。
論文 参考訳(メタデータ) (2021-06-17T00:01:18Z) - Multi-Objectivizing Software Configuration Tuning (for a single
performance concern) [7.285442358509729]
補助的な性能目標を考慮したメタ目的化モデル(MMO)を提案する。
我々のモデルは,局所最適性を克服する上で,最先端の単目的モデルよりも統計的に有効である。
論文 参考訳(メタデータ) (2021-05-31T03:03:53Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。