論文の概要: Hyperparameter Optimization for AST Differencing
- arxiv url: http://arxiv.org/abs/2011.10268v3
- Date: Mon, 5 Feb 2024 09:45:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 21:52:43.958900
- Title: Hyperparameter Optimization for AST Differencing
- Title(参考訳): ast差分法のハイパーパラメータ最適化
- Authors: Matias Martinez and Jean-R\'emy Falleri and Martin Monperrus
- Abstract要約: ASTの差分アルゴリズムは、その有効性に強い影響を与えるかもしれない設定パラメータに依存する。
DAT (Diff Auto Tuning) という新しい手法を提案する。
我々は、GumTreeという名前の最先端AST差分アルゴリズムによって生成された編集スクリプトを、異なるシナリオで最適化するために、データ駆動型アプローチDATを評価した。
- 参考スコア(独自算出の注目度): 13.91022972791383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computing the differences between two versions of the same program is an
essential task for software development and software evolution research. AST
differencing is the most advanced way of doing so, and an active research area.
Yet, AST differencing algorithms rely on configuration parameters that may have
a strong impact on their effectiveness. In this paper, we present a novel
approach named DAT (Diff Auto Tuning) for hyperparameter optimization of AST
differencing. We thoroughly state the problem of hyper-configuration for AST
differencing. We evaluate our data-driven approach DAT to optimize the
edit-scripts generated by the state-of-the-art AST differencing algorithm named
GumTree in different scenarios. DAT is able to find a new configuration for
GumTree that improves the edit-scripts in 21.8% of the evaluated cases.
- Abstract(参考訳): 同じプログラムの2つのバージョンの違いを計算することは、ソフトウェア開発とソフトウェア進化研究に不可欠なタスクである。
ASTの違いは最も先進的な方法であり、活発な研究領域である。
しかし、ASTの差分アルゴリズムは、その有効性に強い影響を与えるかもしれない設定パラメータに依存している。
本稿では,ASTの高パラメータ最適化のための DAT (Diff Auto Tuning) という新しい手法を提案する。
ASTの差分処理におけるハイパーコンフィグレーションの問題について詳しく述べる。
我々は、GumTreeという最先端AST差分アルゴリズムによって生成される編集スクリプトを、異なるシナリオで最適化するために、データ駆動型アプローチDATを評価した。
DATは、評価されたケースの21.8%で編集スクリプトを改善するGumTreeの新しい構成を見つけることができる。
関連論文リスト
- Hyperparameter Adaptive Search for Surrogate Optimization: A
Self-Adjusting Approach [1.6317061277457001]
サーロゲート最適化(SO)アルゴリズムは高価なブラックボックス関数の最適化を約束している。
提案手法は,各問題とSOアプローチに特有の最も影響力のあるハイパーパラメータを同定し,修正する。
実験により,様々なSOアルゴリズムの性能向上におけるHASSOの有効性が示された。
論文 参考訳(メタデータ) (2023-10-12T01:26:05Z) - Optimizing PatchCore for Few/many-shot Anomaly Detection [0.0]
Few-shot Anomaly Detection (AD)は、ADの新たなサブフィールドである。
本稿では,現在最先端のフルショットAD/ASアルゴリズムであるPatchCoreの性能について,複数ショット設定と多ショット設定の両方で検討する。
論文 参考訳(メタデータ) (2023-07-20T11:45:38Z) - Bidirectional Looking with A Novel Double Exponential Moving Average to
Adaptive and Non-adaptive Momentum Optimizers [109.52244418498974]
我々は,新しいtextscAdmeta(textbfADouble指数textbfMov averagtextbfE textbfAdaptiveおよび非適応運動量)フレームワークを提案する。
我々は、textscAdmetaR と textscAdmetaS の2つの実装を提供し、前者は RAdam を、後者は SGDM をベースとしています。
論文 参考訳(メタデータ) (2023-07-02T18:16:06Z) - Tree-Structured Parzen Estimator: Understanding Its Algorithm Components
and Their Roles for Better Empirical Performance [1.370633147306388]
木構造型Parzen estimator (TPE) は最近のパラメータチューニングフレームワークで広く利用されている。
その人気にもかかわらず、制御パラメーターとアルゴリズム直観の役割は今のところ議論されていない。
論文 参考訳(メタデータ) (2023-04-21T17:02:38Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - AUTOMATA: Gradient Based Data Subset Selection for Compute-Efficient
Hyper-parameter Tuning [72.54359545547904]
ハイパーパラメータチューニングのための勾配に基づくサブセット選択フレームワークを提案する。
ハイパーパラメータチューニングに勾配ベースのデータサブセットを用いることで、3$times$-30$times$のターンアラウンド時間とスピードアップが大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-03-15T19:25:01Z) - A Comparative study of Hyper-Parameter Optimization Tools [2.6097538974670935]
我々は、4つのpythonライブラリ、すなわちOptuna、Hyperopt、Optunity、およびシーケンシャルモデルアルゴリズム構成(SMAC)の性能を比較した。
私たちは、OptunaがCASH問題とNeurIPSのブラックボックス最適化の課題に対してより良いパフォーマンスを持つことを発見した。
論文 参考訳(メタデータ) (2022-01-17T14:49:36Z) - iDARTS: Differentiable Architecture Search with Stochastic Implicit
Gradients [75.41173109807735]
微分可能なArchiTecture Search(DARTS)は先日,ニューラルアーキテクチャサーチ(NAS)の主流になった。
暗黙の関数定理に基づいてDARTSの過次計算に取り組む。
提案手法であるiDARTSのアーキテクチャ最適化は,定常点に収束することが期待される。
論文 参考訳(メタデータ) (2021-06-21T00:44:11Z) - Optimizing Large-Scale Hyperparameters via Automated Learning Algorithm [97.66038345864095]
ゼロ階超勾配(HOZOG)を用いた新しいハイパーパラメータ最適化法を提案する。
具体的には、A型制約最適化問題として、まずハイパーパラメータ最適化を定式化する。
次に、平均ゼロ階超勾配を用いてハイパーパラメータを更新する。
論文 参考訳(メタデータ) (2021-02-17T21:03:05Z) - Bilevel Optimization: Convergence Analysis and Enhanced Design [63.64636047748605]
バイレベル最適化は多くの機械学習問題に対するツールである。
Stoc-BiO という新しい確率効率勾配推定器を提案する。
論文 参考訳(メタデータ) (2020-10-15T18:09:48Z) - Weighted Random Search for Hyperparameter Optimization [0.0]
本稿では,機械学習アルゴリズムのハイパーパラメータ最適化に使用されるRandom Search(RS)の改良版を紹介する。
我々は、標準RSとは異なり、変化の確率で各ハイパーパラメータに対して新しい値を生成する。
同じ計算予算内で、我々の手法は標準のRSよりも優れた結果が得られる。
論文 参考訳(メタデータ) (2020-04-03T15:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。