論文の概要、ライセンス

# (参考訳) グラフニューラルネットワークのハイパーパラメータ最適化のための階層的評価戦略を用いた新しい遺伝的アルゴリズム [全文訳有]

A Novel Genetic Algorithm with Hierarchical Evaluation Strategy for Hyperparameter Optimisation of Graph Neural Networks ( http://arxiv.org/abs/2101.09300v2 )

ライセンス: CC BY 4.0
Yingfang Yuan and Wenjun Wang and George M. Coghill and Wei Pang(参考訳) 構造化データのグラフ表現は、立体視的特徴の抽出を容易にし、ディープラーニングシステム、いわゆるグラフニューラルネットワーク(GNN)を扱う際に優れた能力を示す。 GNNを構築するための有望なアーキテクチャを選択することは、探索空間のサイズと候補GNNを評価するための高い計算コストのために非常に困難な課題であるハイパーパラメータ最適化問題に移行することができる。 そこで本研究では, 階層的評価戦略(HESGA)を用いた遺伝的アルゴリズムを提案する。 完全な評価によって、GNNはハイパーパラメータ値のセットで表現され、指定されたデータセット上でトレーニングされ、ルート平均二乗誤差(RMSE)を使用して、(回帰問題のために)ハイパーパラメータ値のセットで表されるGNNの品質を測定する。 提案する高速評価プロセスでは,早期にトレーニングを中断するが,開始時間と中断時間の間のrmse値の差は,gnnの可能性を示唆する高速スコアとして使用される。 両評価のコーディネートを行うため,提案する階層戦略では,候補者を上位レベルに推薦するために,下位レベルにおける迅速な評価を用いて,エリートグループを維持するための最終評価者としての完全な評価を行う。 HESGAの有効性を検証するため、2種類のディープグラフニューラルネットワークを最適化する。 3つのベンチマークデータセットの実験結果は、ベイジアンハイパーパラメータ最適化と比較してその利点を示している。

Graph representation of structured data can facilitate the extraction of stereoscopic features, and it has demonstrated excellent ability when working with deep learning systems, the so-called Graph Neural Networks (GNNs). Choosing a promising architecture for constructing GNNs can be transferred to a hyperparameter optimisation problem, a very challenging task due to the size of the underlying search space and high computational cost for evaluating candidate GNNs. To address this issue, this research presents a novel genetic algorithm with a hierarchical evaluation strategy (HESGA), which combines the full evaluation of GNNs with a fast evaluation approach. By using full evaluation, a GNN is represented by a set of hyperparameter values and trained on a specified dataset, and root mean square error (RMSE) will be used to measure the quality of the GNN represented by the set of hyperparameter values (for regression problems). While in the proposed fast evaluation process, the training will be interrupted at an early stage, the difference of RMSE values between the starting and interrupted epochs will be used as a fast score, which implies the potential of the GNN being considered. To coordinate both types of evaluations, the proposed hierarchical strategy uses the fast evaluation in a lower level for recommending candidates to a higher level, where the full evaluation will act as a final assessor to maintain a group of elite individuals. To validate the effectiveness of HESGA, we apply it to optimise two types of deep graph neural networks. The experimental results on three benchmark datasets demonstrate its advantages compared to Bayesian hyperparameter optimization.
公開日: Tue, 26 Jan 2021 11:38:54 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
A Novel Genetic Algorithm with Hierarchical Strategy Evaluation for Hyperparameter of Graph Neural Networks Optimisation グラフニューラルネットワーク最適化のための階層的戦略評価を用いた新しい遺伝的アルゴリズム 0.81
Yingfang Yuan†, Wenjun Wang†, George M. Yingfang Yuan', Wenjun Wang', George M (英語) 0.72
Coghill, Wei Coghill, Wei 0.85
Pang∗ 1 1 2 0 2 n a J 6 2 ] G L . Pang∗ 1 1 2 0 2 n a J 6 2 ] G L . 0.83
s c [ 2 v 0 0 3 9 0 . s c [ 2 v 0 0 3 9 0 . 0.85
1 0 1 2 : v i X r a 1 0 1 2 : v i X r a 0.85
data structured of Abstract—Graph can facilrepresentation itate demonhas it features, and the extraction of stereoscopic learning sysdeep working with strated excellent ability when so-called Graph Neural Networks tems, the (GNNs). Graph Neural Networks tems (GNNs) は、その特徴を実証し、立体視で学習するシスディープを抽出し、優れた能力を発揮した。
訳抜け防止モード: 抽象的に構造化されたデータ – graph can facilrepresentation itate demonhas it features 立体的学習能力の抽出 いわゆる「優れた能力」を身に付けて グラフニューラルネットワーク tems, the (gnns)。
0.76
Choosing a transferred can be constructing GNNs for architecture promising challenging problem, optimisation hyperparameter to a a very task due to the size of the underlying search space and high computational cost for evaluating candidate GNNs. トランスファーの選択は、アーキテクチャ上の挑戦的な問題に対してGNNを構築すること、基礎となる検索空間のサイズと、候補GNNを評価するための高い計算コストのため、ハイパーパラメーターをタスクに最適化することである。 0.62
To address this issue, this research presents novel genetic algorithm with a combines (HESGA), which strategy evaluation hierarchical a the evaluation approach. この問題に対処するため,本研究では,階層的な戦略評価手法であるコンバインス(HESGA)を用いた新しい遺伝的アルゴリズムを提案する。 0.79
By using full evaluation of GNNs with a fast of set a GNN is a full evaluation, represented hyperparameter by trained and dataset, values and specified square on a root mean will the error (RMSE) be used to measure quality GNN of the regression (for values hyperparameter the by represented set of the process, evaluation fast proposed the While problems). GNNを高速に設定したGNNの完全な評価は、トレーニングされたデータセットで表されるハイパーパラメータであり、ルート平均上の値と指定された正方形は、回帰の質GNNを測定するために、エラー(RMSE)を使用する。
訳抜け防止モード: 高速な設定でGNNの完全な評価を行うことで、GNNは完全な評価となる。 トレーニングとデータセットによって表現されたハイパーパラメータ、ルート平均上の値と指定された平方メートルは、エラー(RMSE)を使用して、回帰(ハイパーパラメータの場合、プロセスの表現された集合によって表現される値)の品質GNNを測定する。 評価は素早く提案された。
0.63
in stage, training will be interrupted at early the difference of an RMSE values between the starting and interrupted epochs will be used as a fast score, which implies the potential of the GNN the evaluations, types both coordinate considered. ステージでは、トレーニングは早期に中断され、開始と中断の間のrmse値の差は高速なスコアとして使用され、これはgnnが評価する可能性を示し、両方の座標が考慮される。 0.68
being of To lower in evaluation the uses strategy hierarchical proposed fast a where level, to for level recommending candidates a higher the full will act as a final assessor to maintain a group evaluation of elite individuals. a) 評価の低さのため、早期に提案された戦略階層的手法は、候補者を高く推薦するために、エリート個人のグループ評価を維持するための最終評価役として機能する。
訳抜け防止モード: a) 評価を低くするために、高速に提案された戦略階層的使用法 候補者を推薦するレベルでは 総員が最終評価官として働く エリート個人の集団評価を維持するためです
0.84
To validate the effectiveness of HESGA, we of deep graph neural networks. HESGAの有効性を検証するために,ディープグラフニューラルネットワークを用いた。 0.70
The types two optimise apply to it results on three benchmark datasets demonstrate experimental its advantages compared to Bayesian optimization. 2つの最適化が3つのベンチマークデータセットの結果に適用され、ベイズ最適化と比較して実験的にその利点を示す。 0.63
hyperparameter ハイパーパラメーター 0.59
Algorithm, RMSEs. アルゴリズム RMSE。 0.56
Evaluation Hierarchical Terms—Graph Neural Network, Hyperparameter OptiIndex mization, Genetic Strategy, Difference of I. 評価 階層 用語 - Graph Neural Network, Hyperparameter OptiIndex Miniization, Genetic Strategy, difference of I。 0.74
INTRODUCTION G RAPH features represent used to be can of structured Deep data. INRODUCTION G RAPH 機能は、構造化されたディープデータの缶として使用される。 0.58
with learning equipped graph models, the deep so-called graph learning approaches, have recently been used to predict molecular and polymer proprieties [1], and to comparison in achieved been has success tremendous the approaches traditional based on semantic SMILES strings [2] only. 学習能力のあるグラフモデルでは、グラフ学習アプローチと呼ばれるディープなアプローチが近年、分子とポリマーの親和性 [1] を予測するために使われてきた。
訳抜け防止モード: グラフモデルを用いた学習では グラフ学習アプローチと呼ばれる 分子量とポリマー量を予測する[1] そして、達成されたものを比較すると、成功は、セマンティックSMILES文字列 [2 ] のみに基づく従来のアプローチに大きく影響します。
0.86
Among many types of graph deep learning systems, Graph Convolutional Neural Networks (GNNs) succeed in [3]. グラフ深層学習システムでは,グラフ畳み込みニューラルネットワーク(GNN)が[3]で成功している。 0.79
and performance promising learning with deep scalability of as a GNN models Generally, a set objects (nodes) well as their connections (edges) in the of topological graphs form of Mathematical the with are Pang and W. Yuan, W.J. そして、gnnモデルとして一般的には、集合オブジェクト(ノード)とそれらの接続(エッジ)は位相グラフの形式である数学的the withはpangとw. yuan、w.jである。 0.61
Wang Y.F. School and EH14 Sciences, Heriot-Watt University, Computer Edinburgh, 4AS, UK. Wang Y.F. The School and EH14 Sciences, Heriot-Watt University, Computer Edinburgh, 4AS, UK 0.84
Computer of School G.M. 学校のコンピュータg.m. 0.74
Natural Goghill with the and Sciences, is of Aberdeen, Aberdeen, AB24 University 3UE, UK. Natural Goghill with the and Sciences, is of Aberdeen, Aberdeen, AB24 University 3UE, UK 0.85
received XX XX, Manuscript 2020; revised XX, XX, 20XX. XX XX, Manuscript 2020; 改訂 XX, XX, 20XX。 0.78
† Equal contribution authors) (co-first ∗ (email: w.pang@hw.ac.uk) Pang author: Wei Corresponding Equal contributions author) (co-first ∗ (email: w.pang@hw.ac.uk) Pang author: Wei Cor correspondinging 0.73
stereoscopic using tradifrom is distinct [4], features which vector-based tional GNNs Thus, systems. Trdifrom を用いた立体視は[4] と異なり、ベクターベースのイオン性 GNN の特徴である。 0.52
learning machine good solving at are deal can it and problems, graph-related manner end-to-end in systems real-world complex with an Technically, GNNs [5]. 技術的にGNNを備えた実世界のシステムにおいて、機械学習の優れた解決は、それと問題、グラフ関連の方法のエンドツーエンド化を可能にすることができる。
訳抜け防止モード: 機械学習の優れた問題解決は そして問題、グラフ - 関連する方法 - システム現実の終わり - 技術的にGNNを備えた世界複合体 [5 ]。
0.74
can on operate directly graphs, while and in molecular polymer property prediction problems, there is a common representation transfer module which bridges Fed and strings SMILES the between the [6]. can on は直接グラフを操作するが、分子高分子特性予測問題では、供給されたブリッジと文字列が [6] の間をスマイルする共通の表現伝達モジュールが存在する。 0.67
graphs gap graphs, by GNNs can learn the to approximate the desirable user-specific various properties of molecules or polymers on scenarios or applications. GNNによるグラフギャップグラフは、シナリオやアプリケーション上で分子やポリマーの望ましいユーザ固有の様々な特性を近似する方法を学ぶことができる。 0.73
learning As with most the machine approaches, GNNs of architectures, their shape of also hyperparameters need to set a the hyperparameters of examples of include and numbers (kernels), filters convolutional layers, full connected nodes These and training epochs. 学習 大部分のマシンアプローチと同様に、アーキテクチャのGNNと同様に、その形もハイパーパラメータであり、インクルードと数値(カーネル)、フィルタによる畳み込み層、完全な接続ノード これらおよびトレーニングエポックの例のハイパーパラメータを設定する必要がある。 0.68
hyperparameters will affect the a good configuration of i.e., training and learning performance, training a GNN will for effective hyperparameters and lead to predictions, accurate poor configuration generwhile a will ate otherwise results. ハイパーパラメータは、トレーニングと学習のパフォーマンスの良質な設定、効果的なハイパーパラメータのためのGNNのトレーニング、予測への導出、正確な設定の不適切な生成などに影響を与える。 0.71
Therefore, hyperparameter optimisation Nunes Recently, is architectures GNN (HPO) for et.al. したがって、ハイパーパラメータ最適化 Nunes は近年、アーキテクチャ GNN (HPO) である。 0.79
vital. and [7] compared reinforcement evolutionary learning based algorithms based methods for optimising GNN architectures. 不可欠だ そして[7]GNNアーキテクチャを最適化するための強化進化学習に基づくアルゴリズムの比較を行った。 0.55
Moreover, GraphNAS [8] employs a recurrent network trained with architecture. さらにgraphnas [8]は、アーキテクチャでトレーニングされたリカレントネットワークを採用している。 0.63
network explore to gradient policy the is HPO the context However, research of GNN, still in the growing [7]. ネットワークは勾配ポリシーを探求する。 HPOは文脈であるが、GNNの研究は成長している [7]。 0.65
On the other hand, compared with traditional machine including learning models most methods, learning deep of sophisticated architectures are more and GNNs have more time-consuming to train. 一方、ほとんどの手法を学習するモデルを含む従来のマシンと比較して、高度なアーキテクチャの深い学習の方が多く、GNNはトレーニングに時間がかかる。 0.71
This means HPO for GNN is indeed a each very expensive task: for trial regarding a configuration of training complete has it hyperparameters, process to full the configuration. つまり、gnn用のhpoは、それぞれ非常に高価なタスクである: トレーニングの構成に関する試行では、コンフィグレーションを満たすプロセスは、ハイパーパラメータを持つ。 0.68
this of to quality evaluate the Existing HPO [10], Gaussian [9], methods include grid search random search as evolutionary approaches and Bayesian methods [11], as well from the [12] [13] [14], however most of these expensive suffer cost. 既存のHPO [10], Gaussian [9], Grid Search random search as evolution approach and Bayesian method, and as [12] [13] [14], しかし、これらの高価でコストがかかる。
訳抜け防止モード: これは既存のhpo[10]を評価するためである。 gaussian [9 ], 進化的アプローチとしてのグリッド探索ランダム探索とベイズ法 [11 ], 12][13][14]からも。 しかし、これらの高価なものの多くはコストがかかる。
0.73
computational research problem, HPO expensive To this in address the we develop aim to a novel genetic algorithm (GA) with two evaluation methods: full and fast evaluations. 計算研究の課題であるhpoの費用は高いが,我々は,完全評価と高速評価の2つの手法を用いた新しい遺伝的アルゴリズム (ga) の開発を目標としている。
訳抜け防止モード: 計算研究の課題とhpoの費用 : 開発をめざして 完全評価と高速評価の2つの手法を用いた新しい遺伝的アルゴリズム(ga)の実現を目指す。
0.81
Regarding the dataset specified on trained will GNN evaluation, full a be set values, given a of hyperparameter root mean square and error (RMSE) on the validation set will be considered as a full score of this solution. トレーニングされたデータセットについて、GNNの評価では、このソリューションの完全なスコアとして、検証セット上のハイパーパラメータのルート平均平方とエラー(RMSE)が考慮される。 0.66
The proposed fast evaluation early the between of RMSEs difference the employs approach RMSEと雇用者のアプローチの違いを早期に評価する手法の提案 0.80
英語(論文から抽出)日本語訳スコア
score to fitness training the as beginning the stage of and trained. ステージの開始とトレーニングとして、フィットネストレーニングにスコアを付けます。 0.68
A a GNN being of performance the approximate fully proposed named HES strategy hierarchical evaluation is also the which methods, evaluation two for in these coordinating lower recommending fast evaluation operates in a level for thereafter candidates, the full will act as a final evaluation assessor maintain a group of elite individuals. HES戦略階層評価(HES strategyhierarchical evaluation)と呼ばれるほぼ完全に提案された性能のGNNは、どの手法、2つを調整し、高速な評価を推奨する2つをその後候補のレベルで実施するかを調整し、完全な評価評価を行う。 0.74
Finally, to proposed operations and procedures above the the constitute algorithm termed HESGA. 最後に、HESGAと呼ばれる構成アルゴリズムの上に提案された操作と手順について述べる。 0.56
of proposed HESGA, we To assess the effectiveness the caron ried three out experiments public molecule datasets: EOSL the involve [17], which [16], FreeSolv [15], and Lipophilicity properties: molecular predictions of three hydration solubility, lipophilicity, free energy, and Each dataset has respectively. 提案するhesgaの有効性を評価するため,caronは3つの実験を行った: eosl the involve [17], freesolv [15], lipophilicity properties: 3つの水和溶解度, 脂肪親和性, 自由エネルギーおよび各データセットの分子予測。
訳抜け防止モード: 提案するhesgaについて,caron が公開分子データセット eosl the involve [17] の3つの実験から有効性を評価する。 16], フリーソルバ [15] および脂肪親和性 : 3つの水和溶解度に関する分子予測 それぞれ、脂肪親和性、自由エネルギー、および各データセットを有する。
0.79
all the molecules represented SMILES strings, which can by constructed These graphs. 全ての分子はSMILES文字列を表しており、これらのグラフを構築できる。 0.69
molecular construct to used be the used as input graphs then to GNNs for predictive were tasks. 使用する分子構造は入力グラフとして使われ、予測のためにGNNに使用される。 0.74
In this research, we apply HESGA to optimise the hyperparameters of two types of Graph Neural Networks: Neural Passing Message [6] (GC) Convolution Graph and performance learning their improve [18], (MPNN) Network to compared in terms of RMSE. 本研究では,ニューラルパス・メッセージ [6] (gc) 畳み込みグラフと,それらの改良 [18], (mpnn) ネットワークの性能学習をrmseの観点で比較することで,2種類のグラフニューラルネットワークのハイパーパラメータを最適化するためにhesgaを適用する。
訳抜け防止モード: 本研究では,HESGAを用いて2種類のグラフニューラルネットワークのハイパーパラメータを最適化する : Neural Passing Message [6 ] (GC ) Convolution Graph RMSEの観点で比較すると, 性能学習が向上した[18 ], (MPNN ) ネットワーク。
0.90
The promising results with benchmarks [1] show that HESGA has advantages both in compared achieving good/better solutions to the Bayesian cost computational less and based HPO the than require genetic original algorithm. ベンチマーク[1]による有望な結果は、HESGAは遺伝的アルゴリズムよりも、ベイズコストの計算を少なくし、HPOをベースとした良い/良いソリューションを達成できるという利点があることを示している。 0.59
are research this contributions The main of as follows: a proposed 1) We fast approach for evaluating GNNs the between of difference using by RMSEs the early of very and beginning the stage training training. 1) GNNを評価するための素早いアプローチとして、RMSEによる差分の評価を早め、ステージトレーニングの開始に向けます。
訳抜け防止モード: 研究 この貢献は次の主なものか? : 提案1)we fast approach gnnの評価 rmsesによるステージトレーニングの開始から開始までの差異の評価。
0.61
the We proposed a novel hierarchical evaluation strategy used together with GA (HESGA) for hyperparameter optimisation. 我々は,ハイパーパラメータ最適化にGA(HESGA)と併用した新しい階層的評価戦略を提案した。 0.75
three experiments benchon systematic We conducted mark datasets (ESOL, FreeSolv, and Lipophilicity) to assess the performance of HESGA on GC and MPNN Bayesian method. 我々は,GCおよびMPNNベイズ法におけるHESGAの性能を評価するために,マークデータセット(ESOL,FreeSolv,Lipop hilicity)を試験した。
訳抜け防止モード: ベンチマークシステムによる3つの実験を行った(ESOL, FreeSolv)。 and Lipophilicity ) to evaluate the performance of HESGA on GC and MPNN Bayesian method。
0.87
the to opposed as models Section follows. モデルセクションが示すように、反対する。 0.62
as organized is paper of II rest this The introduces Section In for relevant work and methods HPO. まとめると、ii restのペーパーである。 関連した作業とメソッドの紹介セクションは、hpoである。 0.50
experiments presented. III, the details of HESGA is The are Then IV. 実験の結果です 第3に、HESGAの詳細はThe Are Then IVである。 0.72
Section analysed the and reported are in results topics we interesting regarding more have a further discussion Section in Section V. Finally, VI the paper and concludes explores some directions in future work. セクション分析および報告されたセクションは、より興味深い結果のトピックである。セクションvでさらに議論のセクションを持つ。最後に、vi the paperをまとめ、今後の作業におけるいくつかの方向性を考察する。
訳抜け防止モード: 分析および報告されたセクションは、私たちが興味を持っている結果のトピックである。 最後に、VIはその論文をまとめ、今後の研究の方向性を探る。
0.65
2) 3) A. AND RELEVANT METHODS 2) 3) A。 関連する方法や 0.66
II. BACKGROUND Random Search Grid Search and Grid search and random search are two most commonly the initializes Grid-based for approaches used method HPO. II。 BACKGROUND Random Search Grid Search and Grid Search and random searchは,HPOを用いた手法において,最も一般的にグリッドを初期化したものである。 0.73
layout grid hyperparameter space using and tests each point (representing a configuration of hyperparameters) in the grid. グリッド内の各点(ハイパーパラメータの構成を表す)を使用してテストするレイアウトグリッドハイパーパラメータ空間。 0.74
As search is performed in an exhaustive manner to grid the determined cost its points, grid evaluate resolution by all is contrast, of the pre-specified grid layout. 探索は決定コストのポイントをグリッド化するために徹底的に行われるため、事前に指定されたグリッドレイアウトのコントラストをグリッドが評価する。
訳抜け防止モード: 探索を徹底的に行い、決定されたコストをポイントにグリッド化する。 grid evaluation resolution by all is contrast, of the pre - specified grid layout。
0.80
In search random is supported by a series of defined probabilistic distributions (e g uniform distribution), which suggest a number of points more general in is search random that noted is It trials. 探索ランダムは、一連の定義された確率分布(例えば一様分布)によって支持され、これは、より一般的な点が探索ランダムであることを示す。 0.80
in practical networks イン 実践ネットワーク 0.65
and given than efficient search computational same the そして 効率的な探索計算よりも 0.58
grid for budget グリッド for budget 0.75
HPO of [19]. HPO (複数形 HPOs) 0.38
2 neural B. Approaches 2 神経 B。 アプローチ 0.75
and Gaussian Bayesian the probabilisBayesian optimization can be used to suggest mentioned in random It is assumed tic distributions search. ガウシアンは Bayesian the probabilisBayesian Optimization(英語版) はランダムに述べたように tic distributions search と仮定される。 0.59
correlated is model learning of the that to the performance Thus, we give a hyperparameters. 関連するのは、パフォーマンスに対するモデルの学習であり、ハイパーパラメータを与えます。 0.69
its higher probability to the hyperparameter set of values with better performance [11], which means that it will be allocated with more chances to be calculations, of iterations sufficient After further. パフォーマンスが向上した値のハイパーパラメータセット [11] よりも高い確率で、計算の可能性が高くなることを意味します。
訳抜け防止モード: パフォーマンスが向上した値のハイパーパラメーターセットに対する確率が高い[11]。 つまり、より多くの確率で計算され、十分なイテレーションがあとで割り当てられる、ということです。
0.66
sampled a the maximum liketo similar function distribution probability learned approaches can function lihood be by Bayesian [20], random forest and other surrogate models. 類似関数分布分布の最大値のサンプル化 学習したアプローチは、ベイズ [20]、ランダムフォレスト、その他のサロゲートモデルによってlihoodを機能させることができる。 0.70
result, [21] a As the computational cost for model validation will saved in be approximating for is process Gaussian way. 結果、[21] a はモデル検証の計算コストとして、プロセスガウス法に近似して節約される。 0.74
this the suitable flexibility their results distribution evaluation because of of and traceability [22]. これにより、トレーサビリティおよびトレーサビリティによる結果分布評価の柔軟性が向上します [22]。 0.73
The combination of Bayesian optimisation with Gaussian outperforms human expert-level process in example, For [11]. ベイズ最適化とガウス最適化の組み合わせは、例えば[11]のように、人間のエキスパートレベルのプロセスを上回っている。 0.52
problems many optimization [23], in FABOLAS poposed to optimisation of is accelerate Bayesian method large hyperparameters on datasets, and this benefits from sub-sampling. 問題 多くの最適化 [23] は、データセット上のベイズ法の大きなハイパーパラメータを高速化し、サブサンプリングの利点を享受している。 0.72
Another case is method successful a combines which and and optimisation Bayesian Hyperband, robustness it possesses of simplicity, efficiency, the features and flexibility [24]. もうひとつのケースは、ベイジアンハイパーバンドの最適化、堅牢性、単純さ、効率性、機能、柔軟性を組み合わせる手法の成功です [24]。 0.70
C. Evolutionary Computation (EAs) demonhave algorithms Recent years, evolutionary and strated advantages in solving large-scale, highly non-linear for HPO [26]. C。 進化計算(EA)は近年,HPO [26] の大規模で非線形な解法において,進化的かつ強硬な利点を生んでいる。 0.74
GNNs [25] expensive optimisation problems the each evaluating in [27] expensive usually is feasible of using problems HPO have solve EAs architectures. gnns [25] 高価な最適化問題 [27] での評価は通常,hpo が eas アーキテクチャを解決した問題を使用することが可能だ。 0.72
to Thus, search been explored due to their excellent ability [28]. そのため、その優れた能力[28]により探索が進められた。 0.83
For using EA, the representation of solutions (encoding) is binary and [29] graphs direct which issue, a for acyclic key demonstrated representation have [30] their advantages. eaを使う場合、解の表現(エンコーディング)はバイナリであり、[29]グラフはどの問題を指示するか、示される非巡回鍵の表現は[30]の利点を持っている。
訳抜け防止モード: EAを使う場合、解(エンコーディング)の表現はバイナリである 29]グラフはどの問題に直結します 非循環キーの表現には[30]の利点があります
0.76
Given good representations of hyperparameters, EA will generate a population of individuals as potential solutions, of which each cases In most function. ハイパーパラメータの適切な表現が与えられると、eaは潜在的な解決策として個人の集団を発生させ、そのそれぞれが機能する。 0.54
evaluated by a fitness will be the fitness objective the function is function, which our context means in first fully training a GNN with the specified hyperparameters and then evaluating its learning performance ( (in terms of individuals these Thereafter, value. 適合度によって評価されるものは、その機能が機能するフィットネス目標であり、私たちのコンテキストは、最初に指定されたハイパーパラメータでGNNをフルにトレーニングし、その学習性能(その後の個人の観点から)を評価することを意味します。 0.65
fitness the as RMSE)) are based roulette) the (e g , method selection by selected a on evolutionary their fitness values to be the parents. 適合性(rmse))はルーレット(roulette)に基づいており、(例えば、aを選択すれば、親になるための適合性値が選択される。 0.52
Through iterations, those GNNs with higher fitness values are more likely to be maintained in the population, and those fitter solutions In offspring. 反復によって、より高いフィットネス値を持つGNNは、人口で維持されやすくなり、それらの適合したソリューションは子孫の中で維持される。 0.56
produce to chance have more will the the selected individual end, the best will be as final GNN model. produce to chanceは選択した個々のエンドにより多くの意志を与え、ベストは最終gnnモデルとなる。 0.74
There are two main issues in evolutionary computation: population. 進化計算には2つの主要な問題がある。 0.68
convergence of diversity algorithm and the To of converge have search the faster, make evolutionary researchers proposed many methods, including modification of evolutionary operators [31], using elite archive [32], ensembles [33] niching and parents, better selecting of chance the increase to 多様性のアルゴリズムと収束のトートの収束はより早く探索され、進化研究者は進化演算子 [31] の修正、エリートアーカイブ [32] の使用、アンサンブル [33] ニチングと親の使用、増加の可能性の選択の改善など多くの方法を提案した。 0.79
英語(論文から抽出)日本語訳スコア
In terms of population exploitation [35]. 人口利用の観点で[35]. 0.64
for [34] methods local escaping for have approaches some diversity, designed local exploration of performance and optima improving the [36]. 34] のメソッドでは、ローカルエスケープはいくつかの多様性にアプローチし、パフォーマンスの局所的な探索をデザインし、[36] を改善した。 0.62
will we in issues, above the Regarding research this two increasing for GA novel a propose with an elite archive strategy which convergence and a mating selection allows one parent to be selected from the whole population for increasing diversity. 我々は、この2つのgaノベルの増大する研究に関して、コンバージェンスと交配選択によって1人の親を集団全体から選抜し、多様性を高めるためのエリートアーカイブ戦略を提案する。 0.68
III. GENETIC ALGORITHM WITH HIERARCHICAL III。 階層型遺伝的アルゴリズム 0.62
STRATEGY EVALUATION from expensuffers real-world GNN applications In many GNN is a challenging for sive cost, computational so HPO huge hyperparameter with task, in those cases particularly inpopulation maintains Moreover, space. 実世界のGNNアプリケーションによるSTRATEGY評価 多くのGNNは、高コストで計算が難しいため、HPOがタスクを伴う巨大なハイパーパラメータである。
訳抜け防止モード: GNNアプリケーションでは、多くのGNNはsiveコストに挑戦しています。 計算によりHPOはタスクを伴う巨大なハイパーパラメーターを計算し、特に人口増加は空間を維持する。
0.65
search of GA a search, means dividuals solutions) during the which in (as computational one generation the cost may involve evaluating all GNN models the population. GAの探索は、(計算1世代として)集団のすべてのGNNモデルを評価することを含む場合の2次元解を意味する。 0.66
To address this issue, a in [37] evaluation with model surrogate faster a lower or cost there However, considered. この問題に対処するため、in[37]モデルによる評価は、そこで考慮されたより低いか、または、コストが速くなる。 0.61
be can evaluation method [38] is guarantee no that the fitness values generated by such methods would approximate those obtained from the original reliably evaluation function, and therefore the HPO results on based combine idea good A be such methods may both is to poor. becan評価方法[38]は、当該方法によって生成された適合値が、元の信頼性評価関数から得られるものと近似することを保証せず、したがって、そのような方法に基づくコンバインアイデアabeに基づくhpo結果の両方が貧弱になる可能性がある。 0.72
original the and fast evaluation strategies together in GA, in we which can achieve a tradeoff between performance case and computational cost. 性能ケースと計算コストのトレードオフを実現するため,ga における the と fast の評価戦略を併用した。 0.75
the first we section rest In introduce will this of the motivation then we will of HESGA, and present the following two detailed processes: (1) fast evaluation by using difference of RMSEs and the hierarchical evaluation strategy. 最初に紹介するweセクションrestでは、次にhesgaの動機を説明し、(1)rmsesの違いと階層的評価戦略による高速評価という2つの詳細なプロセスを紹介する。
訳抜け防止モード: 第1章 休憩します 紹介します 私たちはHESGAの意志です。 そして、以下の2つの詳細なプロセスを示す: (1 ) 高速な評価 RMSEと階層的評価戦略の違いを使用します。
0.75
Next, (2) with presented HESGA the fast for scalable module a is full presented. 次に、(2) 提示された HESGA により、スケーラブルなモジュール a がフルに提示される。 0.54
for HESGA are settings evaluation. HESGAは設定評価である。 0.75
At last, the A. Encoding Solution hyperparameters mentioned the by an Take of four example the (sb), size number of in batch problems: benchmark the rate learning the (rl) and filters (nf ), in convolution layer for encoding (nn). ついに A。 エンコーディング ソリューションのハイパーパラメータは、4つの例(sb)、バッチ問題におけるサイズ数(サイズ)、すなわち、コンボリューション層(nn)におけるレート学習(rl)とフィルタ(nf)のベンチマークである。
訳抜け防止モード: ついに A。 溶液ハイパーパラメータのエンコード 4つの例のTakeによって言及されている(sb )。 バッチ問題におけるサイズ数 : (rl)とフィルタ(nf)の学習率をベンチマークする in convolution layer for encoding ( nn )
0.61
A binary connected fully number nodes of in hyperparameters Table I. shown these four is In Table I, three 3-bit binary strings used to represent the are parameters: sb, nf , and nn, together with the resolutions of 32, problems. 表 i に示すように、are パラメータを表すために使われる3つの 3 ビットのバイナリ文字列、sb, nf, nn と 32 の解像度問題である。
訳抜け防止モード: ハイパーパラメータテーブルIのバイナリ接続された完全数ノード。この4つがテーブルIである。 パラメータを表すために使われる3つの3ビットのバイナリ文字列:sb、nf、nn。 32の解像度で 問題は解決した
0.74
benchmark to according respectively 64, and 32, the learning the represent to is string binary 4-bit A used rate with (rl) a resolution (step increment) of 0.001 accordingly. それぞれ64と32のベンチマークで、表現の学習は文字列バイナリ4ビットAの使用率で、それに応じて(rl)解像度(ステップインクリメント)が0.001である。 0.67
∼ Thus, we have the feasible ranges for batch size as [32 ∼ 256], the number of filters as 256], learning rate as [32 [0.0001 ∼ 0.0016] nodes connected fully of number and the [64 ∼ 512]. したがって、バッチサイズは[32 ] 256]、フィルタの数は 256]、学習レートは [32 [0.0001 ] 0.0016] ノードは番号と[64 ] 512] と完全に接続されている。
訳抜け防止モード: したがって、バッチサイズに対して可能な範囲は [32 ~ 256 ] である。 256 としてフィルタの数、学習率 [ 32[ 0.0001 > 0.0016 ] のノードが数で完全に接続されていること そして[64, 512 ]。
0.81
the as It is noted that because binary string “000” corresponds to the decimal integer 0, but is not expected by 0 all of the hyperparameters. そのように、二進文字列 “000” は十進整数 0 に対応するが、すべてのハイパーパラメータによっては期待されない。 0.72
So we transfer the mapping from the upon of the adding integer to binary value by decimal 1 integer decimal as mapped will decimal integer, be e g 000 1, is mapped to 2, and will correspond to integer 8. したがって、加算整数のオンズから二進値への写像を十進整数の十進数 1 の十進数で転送し、これを十進整数に写像し、例えば 000 の整数を 2 に写像し、整数 8 に対応する。 0.64
001 111 According to Table example of encoding a solution is I, an 1. 001 111 解を符号化する表例に従って i は 1 である。 0.70
Fig. in shown フィギュア。 in shown 0.64
3 Fig. 1: An 3 フィギュア。 1:an 0.66
Example Encode of 例 エンコード ですから 0.63
Solution evaluation to able EA specified, be will strategy the encoding With the in individual optimal the search effective perform for be of EA will the performance space. 解決策 評価 ea が特定できるように、be が ea の be に対して効果的に実行される探索がパフォーマンス空間となるように、個別に最適なエンコーディングを戦略する。 0.66
hyperparameter In deed, size, maximum as such affected population by many factors, of offspring, number generations, operators for producing and population maintenance strategy, etc. 過度パラメータ 行為、サイズ、影響する人口の最大は、子孫、数世代、生産のためのオペレータ、人口維持戦略など、多くの要因による。 0.69
However, we that believe with common parameters, EA will reach the optimal solution with random search and search grid than times less [39]. しかし、共通のパラメーターを持つ私たちは、eaはランダムな検索と検索グリッドで[39]よりも最適なソリューションに到達します。 0.68
Evaluation B. Full and Fast Evaluation is GNN a evaluation, full Regarding first by represented a hyperparameter set of values trained and then a specified on the At dataset. 評価B。 フルで高速な評価はgnnであり、まずトレーニングされた値のハイパーパラメータセットを表現し、次にatデータセットで指定する。 0.65
end of training, trained the GNN will be another validated on specified dataset, and the RMSE of the quality measure used will validation to be the set of the of hyperparameter values as full evaluation. トレーニングの終わりにトレーニングされたGNNは、指定されたデータセット上で別の検証が行われ、使用する品質指標のRMSEは、完全な評価としてハイパーパラメータ値のセットとして検証される。 0.68
There are already several approaches on developing fast evaluations, such as partial training [38] [40], and incomplete is sub-dataset a with training Partial [41] training [42]. 部分トレーニング [38] [40] など,高速評価を開発するためのアプローチはすでにいくつかあり,不完全は部分トレーニング [41] トレーニング [42] を持つサブデータセット a である。 0.82
good However, models. complicated and datasets tackling at big is when the dataset not very big, e g the dataset FreeSolv [16] with only data points, partial training seems not 642 appropriate due to the lack of data points for training. しかし、モデルだ。 データセットがそれほど大きくない場合、例えばデータセットがデータポイントのみを持つFreeSolv [16]の場合、トレーニング用のデータポイントが不足しているため、部分的なトレーニングは642に適していないように思われる。 0.68
While helpful policy might stop early training with incomplete the be Based FreeSolv. 有用なポリシは、be Based FreeSolvが不完全な早期トレーニングを止める可能性がある。 0.53
processing such for datasets like these on ideas, fast evaluation method by using of a the difference RMSEs validation between the early stage and the very of beginning Equation below In introduced. このようなデータセットをアイデアに基づいて処理するため、早い段階でのRMSEの検証と、Inの開始方程式との差を利用した高速評価手法が導入された。 0.70
is training the of F(t) t for stands 1, the fitness value at epoch during GNN training. スタント1に対するF(t) tのトレーニングであり、GNNトレーニング中のepochにおけるフィットネス値である。 0.82
∆F (1, t) = F (1) − F (t). F (1, t) = F (1) − F (t) である。 0.81
(1) of fitness difference the defined is above, ∆F (1, t) as In the experiments, In tthepoch. 1) 上述の定義の適合性差は, 実験の通り, tthepoch において, 〜f (1, t) である。 0.77
and the epoch our between 1st so ∆F (1, t) used fitness the evaluation metric, RMSE was as heuristic, a in RMSE. そして、第1次sof(1, t)間のエポックが、評価基準に適合性を用いたとき、rmseはヒューリスティックでrmseのaでした。 0.56
As decrease the approximate can of rate bigger those individuals in the population with ∆F (1, t) values are more promising to achieve smaller RMSE at the end of their training. f (1, t) の値を持つ個体の比率を減少させることで、トレーニングの終了時により小さなrmseを達成することがより期待できる。 0.64
We note this may not be that always the final the for value approximate as this use but case, an we evaluating GNNs. これは、常にこの使用と近似した値の最終的な値ではなく、GNNを評価するケースである。 0.70
the fitness value in to reduce cost for order We also note that the number of epochs will be far less than t the number of epochs needed in training, so ∆F (1, t) also can stage. 順序のコストを抑えるための適合度値は、訓練に必要なエポックの数よりもはるかに少ないので、1, t)もステージに上がる。
訳抜け防止モード: 受注コストを削減するための適合度値は トレーニングに必要なエポックの数よりも はるかに少ないことに留意します つまり、F ( 1, t ) もステージに立つことができる。
0.65
training early the in fitness difference called be beという体力差の早期訓練 0.67
0 1 01 1 00 1 01 0 1 1[ ]Encodingbatch sizeEncodingn_filter sEncodinglearning rateEncodingn_fullno des'batch size', 96, 'n_filters', 224, 'learning rate', 0.0012, 'n_fullnodes', 192 0 1 01 1 00 1 01 0 1 [ ] Encodingbatch sizeEncodingn_filter sEncoding Learning rateEncodingn_fullno des'batch size', 96, 'n_filters', 224, 'learning rate', 0.0012, 'n_fullnodes', 192 0.90
英語(論文から抽出)日本語訳スコア
TABLE I: Encoding テーブル I: エンコーディング 0.69
for Hyperparameter ハイパーパラメーターのための 0.46
and Solution 4 encoding Binary hyperparameters Range of Resolution (step increment) ranges integer Full そして 解決策 4 バイナリハイパーパラメータのエンコーディング 分解能の範囲(ステップインクリメント) 整数フルの範囲 0.75
1 1] 0]∼[1 1 1] 0]∼[1 0.76
sb [0 0 1∼8 32 32∼256 sb [0 0 1∼8 32 32∼256 0.78
0]∼[1 nf [0 0 1∼8 32 32∼256 0]∼[1 nf [0 0 1∼8 32 32∼256 0.68
1 1] 1 0]∼[1 1 1] 1 0]∼[1 0.78
rl [0 0 0 1∼16 0.0001 0.0001∼0.0016 rl [0 0 0 1∼16 0.0001 0.0001∼0.0016 0.56
1 1] 1 1] 0]∼[1 1 1] 1 1] 0]∼[1 0.79
nn [0 0 1∼8 64 64∼512 nn [0 0 1∼8 64 64∼512 0.78
Fig. 2: Hierarchical フィギュア。 2:階層化 0.62
Evaluation Strategy we can evaldifference fast a offer this using By fitness, population, their according individuals in to to all uation the is there early training stage. 評価 戦略 私たち フィットネスや人口、それに応じた個人を、初期の訓練段階にあるすべての使用法に当てはめて、この提案を迅速に実行できます。 0.71
However, in the performance a key how to addressed: needs argument that issue be choose the to algorithms would t. Since some training terminate the training by a fixed maximum number of epochs, while the others might set termination, we for criterion have adaptive a more cannot 10%∼20% of So evaluation. しかし、パフォーマンスにおいて、問題がアルゴリズムを選択することを求める議論はtである。あるトレーニングは、一定数のエポックでトレーニングを終了する一方、他のトレーニングは終了をセットする可能性があるので、私たちは、より適応的にSoの評価を10%から20%はできない。 0.58
a fixed the fast argument for t the maximum number of epochs is proposed, which means the 10%∼20% fast evaluation will only consume approx. t の最大エポック数を固定した高速引数が提案されており、これは10%/20%の高速評価が約 20% しか消費しないことを意味する。 0.59
of the evaluation. full the to compared cost computational 評価の結果です 比較コスト計算を満たします 0.59
C. Strategy Evaluation Hierarchical individuals which suggest only the evaluation will fast The results after full better achieving probability have high of always this the is that guarantee but training, it cannot still fast both and including structure case. C。 戦略評価 階層的な個人は、評価のみを高速に評価する 完全な達成確率の後の結果は、常に高い水準にある。
訳抜け防止モード: C。 戦略評価 評価のみを示唆する階層的な個人は、完全な達成確率が高ければ結果が速くなる。 構造ケースを含め、両方の処理を高速に行うことはできない。
0.70
Thus, a hierarchical 2. したがって、階層的な2。 0.73
Fig. designed is evaluations full as in shown individuals all initialization, population 2, Fig. フィギュア。 設計は、すべての初期化、人口2、図示のような完全な評価である。 0.51
the In after Step are evaluation method assessed by the full in (1), and in Step (2), those with higher fitness values are selected and sent to the elite archive accordingly. インアフターステップは、フルイン(1)で評価される評価方法であり、ステップ(2)において、より高い適合度を有するものを選択してエリートアーカイブに送信する。 0.68
Steps (3) and (4), parents In from roulette method the by selected individually A and B are the whole and archive elite the population. ステップ(3)及び(4)は、選択された個別a及びbによるルーレット法からの親は、人口の全体及びアーカイブエリートである。 0.79
A new population one. old are generated in Step (5) to replace the In Step individuals will population (6), all the in the new take not the assessed are they full the fast alternatively evaluation, by candidates method, a number and evaluation small of with be better fitness selected in Step (7). 新しい人口の1人 ステップ(5)では、個人が人口を増加させるインステップ(6)に代えて、評価されない新しいテイクはすべて、ステップ(7)で選択された適合度が小さく、候補メソッド、数、評価によって、より速い代替評価を満たしているかどうかを判断する。
訳抜け防止モード: 新しい人口の1人 old は Step ( 5 ) で生成され、In Step の個々人の人口 ( 6 ) を置き換える。 新しいテイクは評価されていない 高速な代替評価に満ちているか? 候補法では,Step (7 )で選択した適合度が向上した数と評価が小さい。
0.73
Further, these values will candidates are assessed by the full evaluation method in Step archive elite the update will they (9), Step in then and (8), さらに、これらの値はStepアーカイブエリートの完全な評価方法によって評価され、更新は(9)、Step in thenおよび(8)となる。 0.75
Algorithm 1 1: 2: アルゴリズム 1: 2: 0.64
HESGA Initialization with population, and solution npop, dindi gen 0, maxgen, = = 0.1, = 0.1, = 0.8, re rc pc pm = 0.2, evf ast = 0, evf ull = 0 elite the update evaluation, evaluated by population full archive, evf ull+ = npop, while do gen < maxgen select and elite the and Parents archive from B A to population, generate respectively, whole npop offspring fast evaluation on the new population, then npop×rc candidate to individuals better enter the evfast + = npop, full evaluation on the candidate and update group, evfull + = npop × rc, elite archive, archive, of individual best the save elite end while Output GNN final the model decoded elite individual in the archive HESGA Initialization with population, and solution npop, dindi gen 0, maxgen, = = 0.1, = 0.1, = 0.8, re rc pc pm = 0.2, evf ast = 0, evf ull = 0 elite the update evaluation, evaluated by population full archive, evf ull+ = npop, while do gen < maxgen select and elite the and Parents archive from B A to population, generate respectively, whole npop offspring fast evaluation on the new population, then npop×rc candidate to individuals better enter the evfast + = npop, full evaluation on the candidate and update group, evfull + = npop × rc, elite archive, archive, of individual best the save elite end while Output GNN final the model decoded elite individual in the archive 0.91
the new select group, the 新しいセレクト・グループです 0.52
gen + + from the gen (複数形 gens) 0.48
best 3: 4: 5: 最高 3: 4: 5: 0.81
6: 7: 8: 9: 10: 6: 7: 8: 9: 10: 0.85
depending in the elite to generate iteratively エリートに頼って反復的に生成する 0.56
better are they if on Steps Next, archive. Steps Nextでは、アーカイブの方がよいでしょう。 0.75
new offspring, and termination the until 新しい子孫と それまでの終了は 0.73
the of some than individuals will (4) and (3) be repeated process will the whole run be criteria are met. 個人以上のもののいくつかは、(4)、(3)繰り返しのプロセスは、全体の実行基準が満たされる。 0.71
D. settings Settings Full HESGA and Parameter code pseudo The parameter the of HESGA and are shown in Algorithm 1. of size In Algorithm 1, population, is the is dindi npop as resolution on depends solution which of dimension the the generations, gen is III-A, in Section mentioned for counter the generations maximum is the number of allowed in maxgen proportions execution, one and are the for elite archive re rc candidates group, and are the probabilities for and pc pm is and mutation, and crossover counter the for evf ull evf ast Line 3, the and initial evaluations. d. 設定 Settings Full HESGA and Parameter code pseudo The parameter the of HESGA and are shown in Algorithm 1. of size In Algorithm 1, population, is the is dindi npop as resolution on depends solution which of dimension the the generations, gen is III-A, in Section mentioned for counter the generations maximum is the number of allowed in maxgen proportions execution, one and are the for elite archive re rc candidates group, and are the probabilities for and pc pm is and mutation, and crossover counter the for evf ull evf ast Line 3, the and initial evaluations. 0.79
times the of fast full In population will be evaluated by the full evaluation method to select elites, which will be to the elite archive. time of fast full In population will be evaluate by the full evaluation method to select elites, will be been to the elite Archive。 0.76
From sent Line Line 9, 4 termination the until executed loop to is the In Line 10, final GNN model conditions are met. 送信ライン9,4から、最終gnnモデル条件が満たされるまで実行されるループをインライン10に終了させる。 0.70
the decoded from the best individual in the elite archive will be the output. エリートアーカイブの 最高の個人から復号されたものが 出力になります 0.72
4 ∼ 9), (Lines In each loop HESGA first assess the will candidates better the then evaluation, fast by offspring new それぞれのループにおいて、HESGAはまず、新しい子によって高速に、その時の候補をよりよく評価する。 0.61
Fast EvaluationPopulation Full EvaluationCandidates : Population: OperationElite Archive(1)(6)(7)(8)( 2)(9)Parent AParent B(3)(4)(5) Fast EvaluationPopulation Full EvaluationCandidates : Population: OperationElite Archive(1)(6)(7)(8)( 2)(9)Parent AParent B(3)(4) 0.77
英語(論文から抽出)日本語訳スコア
Fig. 3: Binary フィギュア。 3: バイナリー 0.60
Crossover and Mutation クロスオーバー 突然変異は 0.60
evaluation process fast evaluation will undergo full selected via updated better the by then is archive The 2. as in Fig. 評価プロセスの高速評価は、更新されたbetterを通じて完全に選択され、figで2.2をアーカイブする。 0.62
elite strategy prea offers evaluation hierarchical candidates. elite strategy preaは評価階層の候補を提供する。 0.68
This proposed evaluation method selection mechanism by fast the 80%∼90% computational the around save could and cost. そこで本研究では,約80%の計算量とコストを高速に行う手法選択機構を提案する。 0.77
On a final evaluation approach acts other hand, assessor, the full as which ensures that the population moves the right direction to time. 最終的な評価アプローチでは、アセストラクターは、人口が時間に向かって正しい方向に動くことを保証します。
訳抜け防止モード: 最終評価アプローチでは、評価者は、そのように振る舞う 人口が時間に沿って正しい方向に動くことを保証します。
0.68
the function objective the towards 目的が目的であること 0.68
all E. Evolutionary Operators and Other Settings We use the classical binary crossover and mutation operators are mechanisms their [46], [45] [44] as demonand [43] in the strated 3. by example Fig. すべて e. 進化的演算子とその他の設定 古典的なバイナリクロスオーバーと突然変異演算子は、(46], [45] [44] をストレートされた 3 のデモンド[43]として使用します。 0.69
In position in shown Fig. 図に示す位置にある。 0.77
3, the parameter in both crossover and mutation is randomly a p len), generated integer in the range of where is the (1, len string). 3 では、交叉と突然変異の両方のパラメータは、ランダムに p len であり、(1, len 文字列) の範囲で生成される整数である。 0.76
of (i.e. of (複数形 ofs) 0.58
solution binary number length the in bits the population The maximum generation and size set acare cording to the specific problems that HESGA aims to solve. ソリューションバイナリ番号長 インビット人口 最大生成とサイズは、HESGAが解決しようとしている特定の問題に注意を払います。 0.73
As for the population maintenance, the elite archive is maintained not does population while method, sorting fitness by the the archive elite policy. 人口維持に関しては、エリートアーカイブは集団を維持せず、アーカイブエリートポリシーによって適合度を分類する。 0.69
maintenance a need update, In when a candidate better can successfully update the elite archive, the worst one in elite archives will be discarded. 保守 必要更新、候補者がエリートアーカイブの更新に成功すれば、エリートアーカイブの最悪のものは破棄される。 0.67
the EXPERIMENTS IV. はあ? 実験 IV。 0.54
experibe performance the section, this In of HESGA will Section in on several investigated mentally datasets mentioned architectures, graph deep of types we I, neural two use and Neural [6] Convolution Message Passing Graph (GC) and Network (MPNN) [18] to assess the performance of HESGA. The section, this In of HESGA will section in on several researched datasets mentioned architectures, graph of types we, Neural two use and Neural [6] Convolution Message Passing Graph (GC) and Network (MPNN) [18] to evaluate the performance of HESGA。 0.72
Section IV-A shows the advantage and disadvantage of the traditional GA for HPO compared with parameter default the presents IV-B Section from the settings. 第IV-A節は、HPO の従来の GA の利点と欠点を示し、パラメータは、設定から IV-B 節をデフォルトとする。 0.69
results obtained optimising the GC model with the proposed HESGA compared to the Gaussian HPO method on three datasets, i.e. その結果,提案したHESGAを用いてGCモデルを最適化し,ガウスHPO法と比較した。 0.72
ESOL [15], the IV-C reports FreeSolv Section [16] performance of HESGA on MPNN model. esol [15], the iv-c reports freesolv section [16] performance of hesga on mpnn model (英語) 0.70
All experiments are on Core performed CPU, 8GB Memory, and GeForce GTX 1050 GPU. すべての実験はコア実行cpu、8gbメモリ、geforce gtx 1050 gpuで行われている。 0.84
and Lipophilicity a PC Inter PCインターホンとしてのリポフィリティー 0.39
[17]. (R) i5-8300 [17]. (R) i5-8300 0.67
with A. and Disadvantage Advantage study on GA to optimize hyperparameters, we use For a case and run it traditional GA to the a optimise on batch parameters: this In dataset. と A。 ハイパーパラメータを最適化するためのgaのデメリットスタディでは、ユースケースに使用して、バッチパラメータの最適化に従来のgaを実行します。
訳抜け防止モード: と A。 gaに関する不利な利点の研究は ハイパーパラメータを最適化し あるケースで使用し、バッチパラメータの最適化のために従来のgaを実行します。
0.69
FreeSolv the GC model three FreeSolv GC モデル3 0.73
Traditional GA experiment, 伝統的なGA 実験だ 0.59
the of 5 はあ? ですから 5 0.57
hyperpa- A Fig. Hyperpa フィギュア。 0.48
comparison 4: and GC with rameters 比較 4: and GC with rameters 0.83
between default GC hyperparameters デフォルトでは GCハイパーパラメータ 0.70
with optimised と optimized~ 0.63
number (sb), size the learning (ne), epochs and execution of optimized are (rl) rate optimized hyperparameter The by GA. GA are 32, by and 0.0015; on the = sb = ne = 240 rl default other hand, the hyperparameters pre-set in GC are sb = configurations These rl = 0.0005. and 128, two of ne = 100 30 used independently. GA by 32, by and 0.0015; on the = sb = ne = 240 rl default other hand, the = sb = ne = 240 rl default hand, the hyperparameters pre-set in GC is sb = configurations these rl = 0.0005. and 128, two of ne = 100 30 used independently。
訳抜け防止モード: number ( sb ), size the learning ( Ne ) by GA . GA is 32, by and 0.0015 ; on the = sb = ne = 240 rl default other hand, GC で設定されたハイパーパラメータ Pre - は sb = configurations これらの rl = 0.0005 である。 そして、n = 100 30 の 2 つが独立して使用される。
0.74
run to parameters are for times GC The average RMSEs of training, validation and as well test, as their standard deviations are plotted in Fig. パラメータへの実行は、時間gcのトレーニング、検証、およびテストの平均rmsであり、その標準偏差はfigでプロットされる。 0.62
4. More details presented be validation will of RMSE of distribution the about Section V-A. 4. より詳しくはrmse of distribution the about section v-aのバリデーションである。 0.73
in RMSE We carried t-test on the results obtained from out GC with optimized hyperparameters and GC with default two groups of RMSEs these shows and it hyperparameters, that have not significant do the same mean value at a level of 5%, regarding training, validation and test, respectively. RMSEでは, 最適化したハイパーパラメータとGCを併用したGCと, デフォルトの2つのRMSEを併用したGCと, トレーニング, 検証, テストに関して, 5%のレベルで同じ平均値を有意ではないハイパーパラメータを用いて, t-testを行った。 0.75
Thus, it is significant that using GA hyperparameter optimisation with GC learning the improve approach will of performance to respect the RMSE. したがって, GAハイパーパラメータ最適化とGC学習を併用することで, RMSEを尊重する性能向上への取り組みが重要である。 0.79
The disadvantage of the traditional GA for HPO is its intolerable computational cost, especially highly expensive to those present HSEGA III, we in Section as mentioned problems. HPO の従来の GA の欠点は計算コストが耐え難いこと,特に現在の HSEGA III よりも高額である。 0.64
So, a contains evaluation strategy for candidate fast selection. したがって、aは候補の高速選択の評価戦略を含む。 0.64
B. on GC Model Added of HESGA Results Experimental proposed our of performance investigating To the further apply we section optimise HESGA will this to HESGA, in the tested then on ESOL, GC model, this combination is and FreeSolv Lipophilicity datasets. B。 hesga の結果に加えた gc モデルについて実験的に検討した結果、hesga が hesga にこれを最適化し、esol、gc モデル上でテストした結果、この組み合わせはリポ親和性データセットを解き放つという結果が得られた。
訳抜け防止モード: B。 GCモデルにHESGAを付加したHESGA結果の実験 性能調査の提案 さらに適用するために、HESGAをHESGAに最適化する。 次にテストされたESOL、GCモデルでは、この組み合わせはFreeSolv Lipophilicityデータセットである。
0.79
We record RMSE valhyperparameter Bayesian GC with for ues with comparison executed was experiments optimization (BHO). 我々は, RMSE valhyperparameter Bayesian GC と, 実験最適化 (BHO) との比較を行った。 0.85
Each of the trials results. それぞれの試験結果です 0.58
by 30 independent to obtain statistical Tables In II∼ stand for the number of filters, the IV, nf , nn, sb, ne, lr number the size, batch nodes, connected fully of number 統計表を得るために 30 の独立性 II はフィルタの数、IV, nf , nn, sb, ne, lr を表わす。
訳抜け防止モード: 統計表を得るために30の独立性 II はフィルタの数を表す。 IV、nf、nn、sb、ne、lrはサイズです バッチノード 数で完全に接続された
0.65
0.0000.5001.0001.500 2.0002.5003.000train ingvalidationtestMea n RMSE with Standard Deviation Default Parameters: bs = 128, ne = 100, lr = 0.0005;Optimized Hyperparameters: bs = 32, ne = 240, lr = 0.0015 0.0000.5001.0001.500 2.0003.000trainingva lidationtestMean RMSE with Standard Deviation Default Parameters: bs = 128, ne = 100, lr = 0.0005;Optimized Hyperparameters: bs = 32, ne = 240, lr = 0.0015 0.78
英語(論文から抽出)日本語訳スコア
learning and epoch, maximum of Symbol respectively. 学習とエポック,それぞれ記号の最大値。 0.67
rate, mean and the denote and Std M standard deviation of the respectively. レート、平均および表示記号は、それぞれStdM標準偏差である。 0.66
corresponding RMSE, is the indicator of t-test, h groups population two of that indicates hypothesis the h = 1 is equal have rejected with a mean default significance level in the case of which means of 5%, the two group of samples RMSE have significantly different mean values. 対応する rmse は t-test の指標であり、h 群の集団の 2 つは h = 1 が等しく、平均デフォルトの重要度レベルで拒絶されたことを示唆する。
訳抜け防止モード: 対応するRMSE は t - test, h group population 2 の指標であり、h = 1 が等しいという仮説は、平均デフォルトの値レベルが 5 % の場合に拒絶されている。 RMSEのサンプルの2つのグループは、平均値がかなり異なる。
0.74
In details, M one the minus GC+HESGA by obtained by obtained will negative value a GC+BHO, indicates the former is better, so t indicates while a positive value the former is worse. 詳細は、取得したGC+HESGAのマイナス値がGC+BHOであることから、tは前者の方が良いが、tは前者の方が悪い値を示す。 0.68
t Table II shows very good performance of HESGA on ESOL results of in which our compared to the BHO approach, dataset less are RMSE) those than significant all (M RMSE average of BHO. t Table II は ESOL における HESGA の優れた性能を示し,BHO のアプローチに比べ,データセットは RMSE に劣るが,BHO の平均値(M RMSE の平均値)よりも大きい。 0.87
Moreover, hyperparameters obtained by HESGA the had more stable RMSE values independent trials during 30 validation and training the in deviation) standard (i.e. さらに, HESGAにより得られたハイパーパラメータは, 30の検証および偏差のトレーニングにおいて, RMSE値がより安定であった。 0.82
both less dataset. どちらもデータセットを減らします 0.53
Regarding the FreeSolv dataset, as the results shown in RMSE is worse than Table III, in the training dataset our M on in however, GC+BHO, from obtained the results the one slightly are our method and validation test datasets, better than GC+BHO. FreeSolvデータセットについては、RMSEで示された結果がTable IIIよりも悪いため、Mで行ったトレーニングデータセットでは、GC+BHOは、取得した結果から、GC+BHOよりもわずかに優れたメソッドと検証テストデータセットである。 0.69
It should be noted that in terms of validation, these for d.f. ただし、検証に関して言えば、これらはd.f.である。 0.53
two results are very similar, as the reject t-value (degree of freedom) at 30 and at 60 are 2.042 and 2.0, as the t value we acceptance. 2つの結果はよく似ており、30と60の拒絶t値(自由度)は、我々が受け入れるt値として2.042と2.0である。 0.70
boundary on nearly is -2.117, which got of the is size exact know do noted that, also It is the of as we not RMSE sample group in the reference paper [1], we suppose 1∼30, d.f. ほぼ境界は -2.117 であり、これは正確には RMSE のサンプル群が参照論文 [1] に含まれていないため、我々は 1 × 30, d.f と仮定する。 0.72
it was in the range of thus at 30 and 60 are both this work. いずれも30歳から60歳までの範囲であった。 0.50
considered in Table in results the dataset, Lipophilicity IV In tackling the show that the proposed approach is far better on the training dataset, and not worse than GC+BHO on validation and test datasets. 結果の表では、データセット、Lipophilicity IV 提案されたアプローチがトレーニングデータセットよりもはるかに優れていることを示し、検証とテストデータセットではGC+BHOよりも悪くはない。 0.64
As the M that is set training on RMSE than less the validation the on and test dataset, the proposed HESGA might have over-fitting issue, which reduce its performance on the validation and test datasets. RMSEでトレーニングされているMは、オン・アンド・テストデータセットの検証よりも少ないため、提案されたHESGAには過度に適合する問題があり、検証とテストデータセットのパフォーマンスが低下する可能性がある。 0.60
Moreover, the Lipophilicity dataset SMILE 4,000 the among size biggest has three than (more the entries), computational so it introduces more complicated operations than the other datasets, which makes the execution time-consuming. さらに、PhilipophilicityデータセットのSMILE 4,000は、最大サイズのうち3つ(より多くのエントリ)で計算されており、他のデータセットよりも複雑な操作を導入し、実行に時間がかかる。 0.70
very Experimental Results of HESGA to optimise MPNN Models C. time-consuming we As MPNN models is more GC, than on FreeSolv only carried the out experiments and dataset, Table V. shown results detailed are in experiments carried we shown apon out As in Tab V, BHO plying to optimise and HESGA In models. HESGAがMPNNモデルを最適化するための実験結果 時間を消費する 私たちはMPNNモデルよりもGCの方が多く、FreeSolvでは実験とデータセットのみを実行した、とTable V。
訳抜け防止モード: hesga による mpnn モデルの最適化 - mpnn モデルとしての利用は gc が多い。 表 v に示した結果は、freesolv が行った実験とデータセットのみを実行したよりも、実験で詳細に示されている。 われわれはapon outをtab v、bho plying、optimize、hesgaなどのモデルで示した。
0.57
MPNN the results test, terms of validation and there is that show no significant difference between the two sample groups with significance with however, at level significance the 5%; the two level of tailed 5% (i.e. mpnn 結果試験,検証の観点では有意な差は認められなかったが,有意差は5%であり,有意差は5%であった(すなわち,有意差は5%であった)。 0.62
10%), the equal mean hypothesis was rejected, which indicates that our algorithm is slightly better. 10%) であり, 等価平均仮説は否定され, アルゴリズムはわずかに優れていることが示唆された。 0.66
Moreover, it is observed that on the training dataset the compared ours, better BHO) algorithm (MPNN than far is + overfitting potential a there may that indicates which be issue in that approach. さらに、トレーニングデータセットにおいて、我々の比較したBHOアルゴリズム(MPNNの方がはるかに優れている)は、そのアプローチのどの問題に問題があるかを示す可能性がある。 0.69
Overall, it seems that there are some cases of overfitting in II∼ V). 全体としては、II~Vで過度に適合するケースもあると思われる)。 0.53
The show results experimental (Tables experiments the The show results experimental (Tables experiment) 0.81
6 those on than less are on datasets the training all RMSEs that validation the on RMSE Particularly, validation test. 6 データセットにあるものより少ないものは、RMSEで検証するすべてのRMSEのトレーニング、特に検証テストです。 0.72
and the that than times on the four around two and test datasets is to and MPNN dataset the in GC + BHO on set training FreeSolv dataset. そして、約2の4つのデータセットとテストデータセットは、toとmpnnデータセットが設定されたトレーニングフリーソルバデータセットのin gc + bhoである。 0.69
Lipophilicity + BHO on the As a result, overfitting might lead to model performance on validation/test poorer datasets. その結果、過剰フィッティングはバリデーション/テストの貧弱なデータセットでのモデルパフォーマンスにつながる可能性がある。 0.59
For example, the training loss of MPNN in Table V, just BHO is + but of MPNN + HESGA, that 50% of loss the validation of MPNN + BHO on the test and datasets are worse than that of MPNN + HESGA. 例えば、テーブルVにおけるMPNNのトレーニング損失は、BHOが+だが、MPNN + HESGAのトレーニング損失の50%は、テストとデータセットにおけるMPNN + BHOの検証損失が、MPNN + HESGAのトレーニング損失よりも悪い。 0.79
A. FURTHER DISCUSSIONS V. RMSEs of The Distributions a for values the of set Given same hyperparameter GNN from different the model, training results may still be time this and datasets, same the even time, to split for is the of process, the weight mainly because in each training vectors for a neural network are randomly initialised. A。 FURTHER DISCUSSIONS V. RMSEs of The Distributions a for values of set a given same hyperparameter GNN from the model, training results may be time this and datasets, same as even time, to split for is the process, the weight mainly because in each training vectors for a neural network are randomly initialized。 0.76
As a result, GNN may produce variate RMSEs as a full evaluation function for all evaluating in uncertainty increases which GA, individuals of RMSE distribution Fig. その結果、GNN は RMSE 分布 Fig の個人である GA が増大する不確実性を評価するための全評価関数として可変RMSE を生成することができる。 0.77
5 in the GA population. shows the on results the validation under two given hyperparameter set settings the default parameters and the other the (one is is by HESGA). 5人であった。 onの結果を示す 与えられた2つのハイパーパラメータセットの検証はデフォルトパラメータを設定し、もう1つはHESGAです。 0.57
optimised hyperparameters variable quite are in 5, shown As in Fig. 最適化されたハイパーパラメーターの変数は、図5で表される。 0.73
the RMSE values 30 independent trials. RMSEは30の独立した試験を評価。 0.62
One method to alleviate this negative effect is as follws: we performed experiments on using the trial) in times 3 times several of average of (e g a RMSE cost computational it will make however running GNN, the 3 before. この否定的な効果を緩和する1つの方法は、以下のものだ: 試用実験を行った) 平均の3倍の回数(例えば、rmseコスト計算では、以前の3倍のgnnを実行します。 0.73
And times more expensive than this is another reason that we need to develop a fast evaluation strategy for GA. GAの迅速な評価戦略を開発する必要があるもう1つの理由です。
訳抜け防止モード: そして、これより値段が高いのも別の理由です。 GAの迅速な評価戦略を開発する必要があります
0.70
B. Space Resolution Searching Feasible and Solution resolution higher a with III-A, Section in As presented deal with have to will we set being up, hyperparameters of resolution lower hand, one On points. B。 空間 解決 実現可能分解能と解解分解能をIII-Aで高めに探索するには、提示された処理では、高パラメータの解像度を低く設定する必要がある。 0.68
solution feasible more computational the reducing cost by number would the alleviate but it would be more likely to miss of feasible solutions, the other hand, a higher resolution solutions. 解はより多くの計算が可能 数によるコストの削減は緩和されるが、その一方で高い解像度の解は実現可能な解を見逃す可能性が高い。
訳抜け防止モード: より計算可能な解法 コストを数で減らすことで しかし、その一方では、より高い解像度のソリューションは、実現可能なソリューションを見逃してしまう可能性が高い。
0.81
On high quality computational heavier incur will hyperparameter of space a identify but overheads, it would be more likely to better hyperparameters set of compared with lower resolution. 高品質の計算量が大きい場合、空間のハイパーパラメーターは特定されるが、オーバーヘッドは低い解像度に比べて良いハイパーパラメーターセットになる可能性が高い。 0.68
For comparison, we set up a series of experiments on the FreeSolv encoding for 64 of resolutions varying a dataset with 32, 16, 8, the size and the number of filters. 比較のために,32,16,8のデータセットとフィルタのサイズと数が異なる64の解像度に対して,freesolvエンコーディングに関する一連の実験を行った。 0.75
In Table VI, list batch we different to according the number of feasible solutions the resolutions. テーブルVIでは、解決可能なソリューションの数に応じて、リストのバッチが異なります。 0.67
As shown in Fig. 6, HESGA with lower resolution (bigger by found solutions optimal find cannot increment) step the increment). 図に示すように。 6 より低分解能の HESGA (最適解は増加できない) をステップインクリメントする。
訳抜け防止モード: 図に示すように。 6 解像度の低いHESGA (発見解によって大きいほど、最適な発見は増加しない) を踏む)。
0.75
(smaller resolution This is step higher those with mainly because the grid generated in lower resolution is so coarse for this problem. (より小さな解像度 これは、主に低解像度で生成されたグリッドがこの問題に対して非常に粗いため、より高次のステップである。 0.66
On the other hand, resolution the higher further as this for acceptable of problem be will 16 8 resolution such as the resolution at will not gain much improvement on the RMSE values. 一方,この問題を許容する解像度は16,8の解像度であり,rmse値にはあまり改善が得られない。 0.56
However, choosing an appropriate resolution may a problem-specified issue; in be we resources, computational abundant having of case the しかし、適切な解決方法を選択することは問題特定問題となりうる。
訳抜け防止モード: しかし 適切な解決を選択することは 問題 - 特定の問題; be we のリソース。 ケースの計算量豊富な
0.78
英語(論文から抽出)日本語訳スコア
ESOL GC + BHO ESOL GC + 坊 0.76
GC + HSEGA Hyperparameters 128 = nf 256 = nn 128 = sb 0.0005 = rl = 192 nf = 448 nn = 32 sb = 0.0009 rl GC +HSEGA ハイパーパラメータ 128 = nf 256 = nn 128 = sb 0.0005 = rl = 192 nf = 448 nn = 32 sb = 0.0009 rl 0.88
T-test (with T-test (複数形 T-tests) 0.39
on results significance level of 結果の意義 レベル ですから 0.67
α = 5%) FreeSolv α = 5%) FreeSolv 0.85
GC + BHO GC + HSEGA GC + 坊 GC +HSEGA 0.77
Hyperparameters 128 = nf 256 = nn 128 = sb 0.0005 = rl = 192 nf = 512 nn = 32 sb 0.0012 = rl ハイパーパラメータ 128 = nf 256 = nn 128 = sb 0.0005 = rl = 192 nf = 512 nn = 32 sb 0.0012 = rl 0.96
T-test with on results significance T-test 結果の意義 0.76
level of α レベル ですから α 0.72
= 5% Lipophilicity GC = 5% 脂肪族 GC 0.74
+ BHO GC + HSEGA + 坊 GC +HSEGA 0.76
Hyperrarameters =128 nf =256 nn = 128 sb =0.0005 rl =160 nf =192 nn =64 sb =0.0013 rl ハイパーララメータ =128 nf =256 nn = 18 sb =0.0005 rl =160 nf =192 nn =64 sb =0.0013 rl 0.69
T-test with on results significance T-test 結果の意義 0.76
level of α レベル ですから α 0.72
= 5% FreeSolv = 5% FreeSolv 0.85
MPNN + BHO MPNN MPNN + 坊 MPNN 0.76
+ HSEGA Hyperarameters T = 2 5 M = = 16 sb = 0.001 rl T = 1 10 M = = 8 sb = 0.0012 rl +HSEGA ハイパーパラメータ T = 2 5 M = = 16 sb = 0.001 rl T = 1 10 M = 8 sb = 0.0012 rl 0.86
T-test with on results significance T-test 結果の意義 0.76
level of α レベル ですから α 0.72
= 10% TABLE = 10% テーブル 0.73
TABLE on The TABLE Results II: Results Training 0.43 RMSE M Std RMSE 0.20 0.34 RMSE M 0.07 Std RMSE = -2.436, = 1 t h to the reject hypothesis equal mean III: The Results on Results Training 0.31 RMSE M Std RMSE 0.09 0.63 RMSE M Std RMSE 0.12 12.031, = 1 = h t to reject the equal mean hypothesis The IV: on Results Results Training M RMSE 0.471 0.001 RMSE Std M RMSE 0.24 0.02 RMSE Std -59.840, = = 1 h t to reject the equal mean hypothesis Results on The Training Results 0.31 RMSE M 0.05 Std RMSE RMSE M 0.70 0.13 Std RMSE = 14.693, = 1 h t to the reject hypothesis equal mean テーブル オン The TABLE Results II: Results Training 0.43 RMSE M Std RMSE 0.20 0.34 RMSE M 0.07 Std RMSE = -2.436, = 1 t h to the reject hypothesis equal mean III: The Results on Results Training 0.31 RMSE M Std RMSE 0.09 0.63 RMSE M Std RMSE 0.12 12.031, = 1 = h t to reject the equal mean hypothesis The IV: on Results Results Training M RMSE 0.471 0.001 RMSE Std M RMSE 0.24 0.02 RMSE Std -59.840, = = 1 h t to reject the equal mean hypothesis Results on The Training Results 0.31 RMSE M 0.05 Std RMSE RMSE M 0.70 0.13 Std RMSE = 14.693, = 1 h t to the reject hypothesis equal mean 0.68
ESOL Dataset Validation Results RMSE M 1.05 Std RMSE 0.15 RMSE M 0.89 0.04 Std RMSE = -5.624, = 1 t h to the reject hypothesis equal mean FreeSolv Dataset (1) Results Validation 1.35 RMSE M Std RMSE 0.15 1.29 RMSE M Std RMSE 0.13 -2.117, = 1 = h t the to reject equal mean hypothesis ESOL Dataset Validation Results RMSE M 1.05 Std RMSE 0.15 RMSE M 0.89 0.04 Std RMSE = -5.624, = 1 t h to the reject hypothesis equal mean FreeSolv Dataset (1) Results Validation 1.35 RMSE M Std RMSE 0.15.29 RMSE M Std RMSE 0.13 -2.117, = 1 = h t to the reject mean hypothesis 0.88
Lipophilicity Dataset Results Validation M RMSE 0.678 0.04 Std RMSE RMSE M 0.68 0.02 RMSE Std 0.745, = = 0 h t to accept the hypothesis equal mean (2) FreeSolv Dataset Validation Results 1.20 RMSE M 0.02 RMSE Std M RMSE 1.15 0.15 Std RMSE = -1.835, = 1 h t to the reject hypothesis equal mean 脂質分析結果 M RMSE 0.678 0.04 Std RMSE M 0.68 0.02 RMSE Std 0.745, = = 0 h t to accept the hypothesis equal mean (2) FreeSolv Dataset Validation Results 1.20 RMSE M 0.02 RMSE Std M RMSE 1.15 0.15 Std RMSE = -1.835, = 1 h t to the reject hypothesis equal mean。 0.86
TABLE V: 7 TABLE V: 7 0.85
Test Results RMSE M 0.97 Std RMSE 0.01 RMSE M 0.89 0.04 Std RMSE = -9.708, = 1 t h to the reject hypothesis equal mean 実験結果 RMSE M 0.97 Std RMSE 0.01 RMSE M 0.89 0.04 Std RMSE = -9.708, = 1 t h 0.92
Results Test 1.40 RMSE M 0.16 Std RMSE 1.21 RMSE M 0.12 Std RMSE -5.184, = 1 = h t the to reject hypothesis equal mean 実験結果 1.40 RMSE M 0.16 Std RMSE 1.21 RMSE M 0.12 Std RMSE -5.184, = 1 = h t = 仮説平均 0.85
Results Test RMSE M RMSE Std M RMSE RMSE Std 1.816, = = h t to accept the hypothesis equal mean 結果 RMSE M RMSE Std M RMSE RMSE Std 1.816, = h t to accept the hypothesis equal mean 0.83
0.655 0.036 0.67 0.02 0 0.655 0.036 0.67 0.02 0 0.50
Test Results RMSE M 1.15 RMSE Std 0.12 M RMSE 1.09 0.14 Std RMSE = -1.842, = 1 h t to the reject hypothesis equal mean RMSE M 1.15 RMSE Std 0.12 M RMSE 1.09 0.14 Std RMSE = -1.842, = 1 h t to the reject hypothesis equal mean 0.86
recommend to use as 推薦 へ 利用 として 0.62
high resolution as possible 高い 解決 として 可能 0.63
to achieve better performance へ 達成 より良く 上演 0.64
for GNN. GNNの略。 0.69
英語(論文から抽出)日本語訳スコア
8 optimized the Validation 8 最適化する 検証 0.75
(b) with the the Set by (b)the Set by 0.63
default parameters Hyperparameters デフォルトパラメータ Hyperparameters 0.83
pre-set in GC Optimized gc最適化によるプリセット 0.74
and the Default そして はあ? デフォルト 0.61
5: Fig. Hyperparameters 5: フィギュア。 ハイパーパラメータ 0.64
The (a) with the Distribution Pre-set hyperparameter of RMSE in GC (a)配付前設定 gc中のrmseのハイパーパラメーター 0.52
solution on Results pf × ne × OGC. 解決法 結果 pf × ne × OGC。 0.74
evaluation will be cost this fast of the case in of HESGA: Total Cost 3) Suppose we have a GC with one solutions with size npop, and a population of convolution layer, proportion at most, epoch by trained individual each the is ne group of the maximum generation is maxgen. 総コスト 3) サイズ npop の 1 つの解を持つ GC が存在すると仮定すると、畳み込み層の人口は、最も多くは、訓練された個人によるエポックな比率であり、最大生成の is ne 群は最大生成である。
訳抜け防止モード: HESGAの場合のこのような速さで評価する : トータルコスト3 ) 仮定 サイズnpopの1つのソリューションを備えたGCがあります。 そして、最大生成量のn群は最大生成率で、最大比例して、訓練された個体によってエポック化される。
0.72
elite is re, and based listed HESGA of cost is The detailed as follows on Algorithm 1: 1∼3: Lines for full evaluations on the whole population, it npop × ne × OGC approximately. elite is re, based listed hesga of cost is the detailed on algorithm 1: 1/3: lines for full evaluations on the whole population, it npop × ne × ogc almost. (英語) 0.71
cost will 4∼9: Lines the on evaluation for generation, one in fast cost npop×pf ×ne×OGC; whole new offspring, it will for the cost npop×rc×ne×OGC, full evaluation on candidates, it will (pf + rc)× npop× ne× OGC. in fast cost npop×pf ×ne×OGC; out new offspring, for the cost npop×rc×ne×OGC, full evaluation on candidate, it will (pf + rc)× npop× ne× OGC。
訳抜け防止モード: コストは4×9 : 生成のためのオン評価を行ない、高速なコストnpop×pf ×ne×OGC ; 全く新しい子孫。 コスト npop×rc×ne×OGC に対して、候補の完全な評価を行う。 pf + rc)× npop× ne× OGC となる。
0.77
total thus the be cost will totally (pf + rc) × it generations, Therefore, cost will for maxgen npop × ne × OGC × maxgen. したがって、be のコストは完全に (pf + rc) × 生成されるので、maxgen npop × ne × OGC × maxgen に対してコストがかかる。 0.89
be It should here that noted the cost of sorting and counting operations can be ignored compared with OGC. ここで注意すべきなのは、ソートとカウント操作のコストがogcと比較して無視できることだ。 0.62
[(pf + rc) × result, approximately cost will a As HESGA maxgen + 1]× npop× ne× OGC. [(pf + rc) × result, almost cost will a As HESGA maxgen + 1]× npop× ne× OGC. 0.80
Take an example as follows: suppose we have npop = 10, maxgen = 10, = 0.1, rc = pf In 0.1, will once HESGA thus = 100. running this ne single running equal to 3,000 in terms of the of OGC computational cost. npop = 10, maxgen = 10, = 0.1, rc = pf 0.1 とすると、一度 HESGA = 100 となる。
訳抜け防止モード: 例を挙げると: npop = 10 とする。 maxgen = 10 = 0.1, rc = pf in 0.1, rc = pf このneシングルの実行は、ogcの計算コストの観点で3,000と同等である。
0.71
case, times D. ケース タイム d. 0.64
of HESGA Scalability The different for scalability possesses HESGA that argue We a dataset, for large the example, problems and datasets. hesgaのスケーラビリティについて、スケーラビリティの違いは、私たちをデータセット、例えば問題やデータセットだと主張するhesgaを持っている。
訳抜け防止モード: HESGAのスケーラビリティ スケーラビリティの異なるものには、HESGAがある。 論じる 大規模な例としては、問題とデータセットがあります。
0.61
For by any reasonable replaced can approach fast evaluation be data by training partial as such approaches, sampled using randomly dataset, as in [42]. 合理的に置き換えられた場合、[42]のようにランダムにデータセットを使ってサンプル化した、部分的なアプローチをトレーニングすることで、高速な評価にアプローチすることができる。 0.57
When points from the whole a fast historical datasets are available, surrogate model could be built and trained with the datasets, to approximate the what matter No training. 高速な履歴データセット全体のポイントが利用可能であれば、サロゲートモデルを構築してデータセットでトレーニングすることで、トレーニングなしの事項を近似することができる。 0.66
complete from obtained results the the HESGA will used, approaches evaluation fast are types of fast to always be good mechanism combine both and full a evaluation to achieve a trade-off between solution and quality cost. 得られた結果から、hesgaが使用するアプローチ評価の迅速さは、ソリューションと品質コストのトレードオフを達成するために、常に良いメカニズムであり、完全な評価を組み合わせるための速さのタイプである。
訳抜け防止モード: 得られた結果から、hesgaが使用するアプローチ評価の迅速さは、常に良いメカニズムとなるための速いタイプである。 評価を満たし ソリューションと品質コストのトレードオフを実現する。
0.76
computational In this a with CONCLUSION 計算 このあたりで 結論 0.57
VI. research, we proposed HESGA, strategy hierarchical VI。 研究、HESGA、戦略階層、 0.67
evaluation AND FUTURE WORK 評価 と 今後の課題 0.60
a novel GA equipped fast and 高速で装備された新しいGA 0.55
and full 6: The そして フル 6: 0.63
Fig. RMSE Dataset with Varing TABLE VI: Resolution Size of Solution フィギュア。 可変テーブルによるRMSEデータセット VI:解の解像度サイズ 0.62
Results of Resolutions Solution Number 8 (step 19 binary number 524288 解決解数8(ステップ19バイナリ番号524288)の結果 0.78
increment) solution increment (複数形 increments) 0.37
HESGA on of Hyperparameters under Different 32 15 32768 32 15 32768 の異なる過度パラメータのHESGA 0.70
16 17 131072 16 17 131072 0.85
GC + 64 13 8192 GC + 64 13 8192 0.85
Resolution FreeSolv 解決 FreeSolv 0.72
C. Computational Cost There three are computational affect the that can processes 1) the of cost algorithms full experiments, our used GC in 3) HESGA. C。 計算コスト 1) コストアルゴリズムの完全な実験、3) HESGAで使用したGCの3つが計算に影響を及ぼす。 0.73
2) and evaluation evaluation, fast of GC, Full 1) Evaluation GC: of model we the GC Here take as an example. 2) 評価評価は、GCの高速、フル1) 評価GC: モデル: ここでは、GCを例に挙げます。 0.72
As the GC model will first transfer a SMILE representation to a molecular fingerprint, we suppose that the of length and depth a have fingerprints of atoms L, R N a molecular used were in net [6], and F features convolutional case, (filters) are used. GCモデルはまずSMILE表現を分子指紋に転送するので、長さと深さのaは、分子が用いた原子L、RNの指紋がネット[6]にあり、Fは畳み込みの場合(フィルタ)が使用されると仮定する。 0.62
In this each layer the computational in costs of feedforward and backpropagation process can be estimated by O(RNFL+RNF2) [6]. この各層では,O(RNFL+RNF2)[6]でフィードフォワードおよびバックプロパゲーションプロセスの計算コストを推定することができる。 0.87
For stands simplicity, OGC O(RNFL + RNF2), GC model of cost which for denotes the and layer with epoch of training. シンプルさのため、OGC O(RNFL + RNF2)は、トレーニングのエポックなレイヤとレイヤを表すコストのGCモデルである。 0.66
one one Evaluation 2) Fast of GC: As mentioned above, approx. 1つの評価 2) GCの高速化: 前述したように、approx。 0.77
10%∼20% of used were of the maximum number epochs to 10%∼20% the thus score, fast evaluation be the get cost will of the full for a number of epochs, evaluation. 10% 20%は最大エポック数から10% 20%までであり、高速な評価はエポック数に対するフルのゲインコスト、評価である。
訳抜け防止モード: 使用率の10%/20%が最大値の10%/20%であった。 迅速な評価は、多くのエポック、評価のために全額のゲットコストになります。
0.67
As a result, ne cost will be ne×OGC the time approximately. 結果として、Ne のコストは約 ×OGC となる。 0.64
Suppose the fast and epochs, total the of of percentage evaluation will 速さとエポックを仮定すると、パーセンテージ評価の総計は、 0.65
use a pf 01234567890-1.01.0-1 .11.1-1.21.2-1.31.3- 1.41.4-1.51.5-1.6Cou nt of RMSEwith hyperparameters optimized 012345671.7-1.81.8-. 1.91.9-2.02.0-2.12.1 -2.22.2-2.32.3-2.42. 4-2.52.5-2.6Count of RMSEwith the default parameters pre-set in GC0.000.501.001.502. 002.50resolution = 8resolution = 16resolution = 32resolution = 64RMSE Results of HESGA + GC on FreeSolv Dataset with Changing Resolution of Solutiontrainingvali dationtest 利用 あ pf 01234567890-1.01.0-1 .11.11.11-1.21.2-1.3 1.3-1.41.4-1.51.5-1. 6 RMSEのハイパーパラメータによる最適化 012345671.7-1.81.8-. 91.9-2.02.0-2.12.1-2 .22.2-2.32.32.32.6 RMSEのデフォルトパラメータによるデフォルトパラメータによるGC0.000.501.001.502. 0.50 分解 = 8解像度 = 32解像度 = 64RMSE の HESGA + GC on FreeSolv Dataset with Changing Resolution of Solutiontrainingvali dationtest 0.59
英語(論文から抽出)日本語訳スコア
is methods, evaluation proposed to the expensive address GNNs. は、高価なアドレスGNNに提案された評価方法である。 0.60
problems for HPO Experiments carried out are on datasets representative three in material property prediction by datasets; Lipophilicity and FreeSolv, ESOL, problems: applying HESGA to optimise the hyperparameters of GC and MPNN models, two types of commonly used graph deep neural in material design discovery. HPO実験の問題は、データセットによる材料特性予測における3つのデータセット、LipophilicityとFreeSolv、ESOL、問題:HESGAを適用してGCとMPNNモデルのハイパーパラメータを最適化すること、物質設計発見で一般的に使用される2種類のグラフディープニューラルである。 0.74
Results networks and optimising can HESGA show when outperform BHO that comparable GC models, meanwhile it achieves performance to Bayesian approaches to optimising MPNN models. 結果ネットワークと最適化可能なHESGAは、同等のGCモデルであるBHOよりも優れている一方で、MPNNモデルの最適化に対するベイズ的アプローチのパフォーマンスも向上する。 0.67
In Section 5, we the uncertainty and of RMSE also analysed distributions learning the results, resolution terms in performance of the of and the the hypereparameter search space, computational cost, the scalability of HESGA. 第5節では, RMSEの不確かさと, 結果, 結果の解決条件, ハイパーパラメータ探索空間, 計算コスト, HESGAのスケーラビリティを解析した。 0.57
future, we would In the like to investigate following two the aspects: the in issue over-fitting the with Dealing expera) iments: This is issue observed in both the Bayesian an and HESGA. 今後、我々は以下の2つの側面を調査する: ディーリングエクステラを過度に適合させる問題: これはベイズアンとヘスガの両方で観察される問題である。
訳抜け防止モード: 将来は 以下の2つの側面について検討する : ディーリング・エクステラによる過度に適合する問題 :これはベイズアンとヘスガの両方で観察された問題である。
0.68
In our experiments, the numapproaches our hyperparameter, one as is ber specified (ne) epochs not of might which an overfitting. 実験では、ハイパーパラメーターは1つがber指定(ne)エポックであり、過度に適合しない。 0.51
example, be one reason for For overtraining might cause HPO biases to a perfect fitted model on the training dataset but this model may perform poorly in perspective, our Therefore, datasets. 例えば、Forオーバートレーニングの理由のひとつとして、HPOバイアスがトレーニングデータセットに完全に適合するモデルになるかも知れません。
訳抜け防止モード: for (複数形 fors) オーバートレーニングはHPOバイアスをトレーニングデータセットの完全な適合モデルに導くかもしれない しかし、このモデルは、我々の目的であるデータセットの観点からは、パフォーマンスが悪くなります。
0.58
test validation from and incorporate more can how we investigate to like we would hyperparameters in the search space, or to monitor the overfitting and introduce the penalty item in the evaluation functions. テスト検証とインクルージョンにより、探索空間のハイパーパラメーターを調査する方法や、オーバーフィッティングを監視し、評価関数にペナルティ項目を導入する方法がより有効になる。 0.66
Bi-objective Optimization: b) As mentioned in Section (ne) the as hyperparameters V-C, such epochs of number the are selected to be optimized, and and the number of filters (nf ) of HESGA. b) 節(ne)で述べたように、超パラメータ V-C は、最適化するために数列のこのようなエポックが選択され、HESGAのフィルタ数(nf )が選択される。 0.75
Suppose computational the this will affect cost the be RMSE might improved while the increased cost would be we nf , when time at this in and and increase same the ne the balance and cost case between needs to be a performance consider considered. 計算 rmse のコストが改善されるが、そのコストが増加すると、nf となり、ne のバランスとコストのケースが性能として考慮される必要があると仮定する。
訳抜け防止モード: この計算が RMSE のコストに影響を及ぼすと仮定すると、増大するコストは nf になる。 この中の時間と増加が同じであるとき、バランスとコストのケースは、考慮すべきパフォーマンスである必要があります。
0.76
In our future work, we will dealing with bi-objective this balance issue as a optimization problem, and front Pareto-optimal a offer to expected (PF) more is [47] of models options GNN between considering the trade-off performance and cost. 今後の作業では、このバランス問題を最適化問題として両目的に対処し、期待する(PF)オファーに先んじて、トレードオフ性能とコストを考慮しながら、GNNのモデルオプションの[47]を優先します。 0.71
VII. is This research ical Research Sciences Industrial New on (EP/R020957/1). VII。 The research ical Research Sciences Industrial New on (EP/R020957/1)。 0.76
The Immortality ufacturing ACKNOWLEDGEMENT by supported PhysEngineering the and Council Project funded (EPSRC) Systems: Immortality Manufacturing authors Manthe to grateful also are consortium. 不死の具現化 サポートされたphysengineeringによる承認 the and council project funding (epsrc) systems: immortality manufacturing authors manthe to thank もまたコンソーシアムである。 0.62
[1] [2] [3] [1] [2] [3] 0.85
REFERENCES A. Geniesse, S. C. Gomes, Feinberg, E. Z. Wu, N. Ramsundar, J. A. Geniesse, S. C. Gomes, Feinberg, E. Z. Wu, N. Ramsundar, J. 0.88
B. for benchmark “Moleculenet: and Leswing, V. Pande, a Pappu, K. Chemical science, 513– no. B. B. for benchmark “Moleculenet: and Leswing, V. Pande, a Pappu, K. Chemical Science, 513–No. 0.92
2, pp. learning,” vol. 2、p。 とVol。 0.43
9, molecular machine 530, 2018. system. 9番 分子マシン530 2018年 システム 0.62
information and language chemical “Smiles, D. Weininger, 1. a chemical Journal of rules,” encoding and methodology to introduction sciences, computer information and vol. smiles, d. weininger, 1. a chemical journal of rules”(smiles, d. weininger, 1. a chemical journal of rules, a chemical journal of rules)は、科学、コンピュータ情報、およびvol.netの紹介のためのエンコードと方法論である。
訳抜け防止モード: 情報と言語化学 “Smiles, D. Weininger, 1 . a chemical Journal of rules”. 科学、コンピュータ情報、volを導入するためのエンコーディングと方法論。
0.88
no. 1, pp. 31–36, 1988. ダメよ 1、p。 31–36, 1988. 0.68
28, structural-topic Jin, Y. Y. Q. 28 構造トピック Jin, Y. Y. Q。 0.88
Long, G. Song, Li, and W. Lin, “Graph in Proceedings of the 26th ACM SIGKDD International network,” neural Conference on Knowledge Discovery & Data Mining, 2020, 1065– 1073. Long, G. Song, Li, and W. Lin, “Graph in Proceedings of the 26th ACM SIGKDD International Network”, Neural Conference on Knowledge Discovery & Data Mining, 2020, 1065–1073。 0.87
pp. [4] [5] pp. [4] [5] 0.85
[6] [7] [8] [9] [10] [11] [6] [7] [8] [9] [10] [11] 0.85
[12] [13] [14] [12] [13] [14] 0.85
[15] [16] [17] [15] [16] [17] 0.85
[18] [19] [20] [18] [19] [20] 0.85
[21] [22] [23] [21] [22] [23] 0.85
[24] [25] [26] [27] [24] [25] [26] [27] 0.85
[28] 9 30, [28] 9 30, 0.85
F. and M. Sun, J. Zhou, G. Cui, Z. Zhang, C. Yang, Z. Liu, L. Wang, C. Li, arXiv applications,” and networks: A review of methods neural “Graph arXiv:1812.08434, preprint 2018. survey comprehensive Chang, C.-C. K. Zheng, V. W. H. “A and Cai, IEEE embedding: of applications,” graph Problems, techniques, and Data and Transactions on Knowledge Engineering, 9, pp. f. M. Sun, J. Zhou, G. Cui, Z. Zhang, C. Yang, Z. Liu, L. Wang, C. Li, arXiv application” and network: A review of methods neural “Graph arXiv:1812.08434, preprint 2018. survey comprehensive Chang, C.-C. K. Zheng, V. W. H. “A and Cai, IEEE embeddedding: of applications", Graph Problems, Technique, and Data and Transactions on Knowledge Engineering, 9 pp。 0.87
no. vol. 1616–1637, 2018. ダメよ Vol. 1616–1637, 2018. 0.69
Iparraguirre, R. Bombarell, T. Hirzel, D. K. Duvenaud, D. Maclaurin, J. networks and R. A. Aspuru-Guzik, P. Adams, “Convolutional graphs on information neural in Advances in fingerprints,” learning molecular for systems, processing 2224–2232. Iparraguirre, R. Bombarell, T. Hirzel, D. K. Duvenaud, D. Maclaurin, J. network and R. A. Aspuru-Guzik, P. Adams, “Convolutional graphs on information neural in Advances in fingerprints”, learn molecular for systems, processing 2224–2232”。 0.90
pp. 2015, neural search architecture in “Neural M. Nunes L. Pappa, graph and G. Systems. pp. 2015年、「Neural M. Nunes L. Pappa, graph and G. Systems」のニューラルネットワークアーキテクチャ。 0.83
Brazilian Conference on Intelligent networks,” in Springer, 2020, pp. ブラジルの「インテリジェントネットワークに関する会議」を2020年春に開催。 0.70
302–317. neural “Graph Hu, C. Zhang, P. Yang, Gao, Y. Y. and Zhou, H. IJCAI, pp. 302–317. 神経系 “Graph Hu, C. Zhang, P. Yang, Gao, Y. Y. and Zhou, H. IJCAI, pp. 0.81
in search,” architecture 1403–1409. in search”アーキテクチャ1403-1409。 0.79
vol. 20, 2020, machine “Hyperparameter B. and Claesen M. De Moor, search in arXiv:1502.02127, arXiv preprint learning,” 2015. Vol. 2020年10月20日,マシン “Hyperparameter B. and Claesen M. De Moor, search in arXiv:1502.02127, arXiv preprint learning”。 0.78
IEEE random search,” “Adaptive M. Schumer and K. Steiglitz, size step Control, Transactions on Automatic 13, no. IEEEランダム検索, “Adaptive M. Schumer and K. Steiglitz, size step Control, Transactions on Automatic 13”, No。 0.84
3, vol. pp. 270–276, 1968. 第3巻。 pp. 270–276, 1968. 0.70
P. Adams, and R. Snoek, H. Larochelle, J. optimizabayesian “Practical information neural in Advances in algorithms,” of machine tion learning systems, processing 2951–2959. P. Adams, and R. Snoek, H. Larochelle, J. optimizabayesian “Practical information neural in Advances in Algorithm” of machine tion learning system, processing 2951–2959。 0.96
2012, pp. Federici, C. Di Francescomarino, M. Dumas, M. C. M. Ghidini, Maggi, W. Rizzi, and L. Simonetto, “Genetic algorithms for hyperparamInformatio n eter optimization in predictive business process monitoring,” Systems, 2018. 2012年、p。 federici, c. di francescomarino, m. dumas, m. c. m. ghidini, maggi, w. rizzi, l. simonetto, “予測ビジネスプロセスモニタリングにおけるハイパーパラ情報エター最適化のためのジェネティックアルゴリズム” systems, 2018。 0.74
67–83, 74, pp. 67-83, 74, pp。 0.78
vol. E. Borges, C. Mart´ın, and A. Alonso-Vicario, Sorrosal, C. D. Orive, G. algorithms hyperparameter on for “Evolutionary tuning networks neural modeling Proceedings of the european simulation 26th & models,” in symposium. Vol. E. Borges, C. Mart ́ın, A. Alonso-Vicario, Sorrosal, C. D. Orive, G. Algorithm hyperparameter on “Evolutionary tuning network neural modeling Proceedings of the European Simulation 26th & Model” in symposium. 0.82
Burdeos, France, 2014, 402–409. 2014年フランス、402-409。 0.60
pp. and Y. Pan, X. Xiao, M. Yan, S. Basodi, C. hyperparameter “Efficient Ji, algorithm,” genetic length using learning in optimization deep variable a arXiv arXiv:2006.12703, preprint 2020. from molecdirectly solubility estimating J. S. Delaney, “Esol: aqueous and Journal chemical information of computer sciences, ular structure,” 2004. pp. Y. Pan, X. Xiao, M. Yan, S. Basodi, C. hyperparameter “Efficient Ji, algorithm”, 遺伝的長, 最適化された深い変数 a arXiv arXiv:2006.12703, preprint 2020. from molecdirectly solubility estimating J. S. Delaney, “Esol: Water and Journal chemical information of computer sciences, ular structure” 2004年。 0.89
1000–1005, pp. 1000-1005, pp。 0.52
44, vol. 3, no. 44、Vol。 3位はノー。 0.66
experimental of database “Freesolv: Guthrie, D. a L. Mobley and J. P. Journal of files,” input hydration calculated and free energies, with computer-aided molecular design, pp. データベース“Freesolv: Guthrie, D. a L. Mobley and J. P. Journal of file”の実験結果によると、入力水和と自由エネルギーをコンピュータ支援分子設計で計算した。
訳抜け防止モード: データベース"Freesolv : Guthrie, D. a L. Mobley"の実験 J.P. Journal of file, ” input hydration calculated and free energys. コンピュータで - 分子設計支援 , pp。
0.93
28, vol. no. 7, 711–720, 2014. 28巻。 ダメよ 7, 711–720, 2014. 0.60
M. Wenlock and N. “Experimental in vitro DMPK and Tomkinson, physicochemical on a set of publicly disclosed compounds,” 2015. data https://doi.org/10.6 019/chembl3301361 [Online]. M. WenlockとN. “experimental in vitro DMPK and Tomkinson, physicochemical on a set of public revealed compounds”. 2015 data https://doi.org/10.6 019/chembl3301361[オンライン]。 0.76
Available: Sequence matters: “Order M. Bengio, S. Vinyals, O. Kudlur, and to arXiv:1511.06391, preprint arXiv 2015. sequence sets,” for search J. Bergstra and Y. Bengio, “Random for hyper-parameter optiLearning The Journal of Machine Research, mization,” vol. Order M. Bengio, S. Vinyals, O. Kudlur, and to arXiv:1511.06391, preprint arXiv 2015 sequence sets”, for search J. Bergstra and Y. Bengio, “Random for hyper-parameter optiLearning The Journal of Machine Research, mization”。 0.84
13, no. 1, 2012. pp. 13歳。 2012年1月1日。 0.50
281–305, Schmidt-Thieme, L. and Schilling, N. M. Wistuba, “Scalable gaussian optimization,” Mahyperparameter for surrogates process-based transfer chine Learning, pp. 281–305, Schmidt-Thieme, L. and Schilling, N. M. Wistuba, “Scalable gaussian optimization, Mahyperparameter for surrogates process-based transfer chine Learning, pp。 0.89
vol. 107, no. 1, 43–78, 2018. Vol. 107だ 1, 43–78, 2018. 0.66
H. Eggensperger, M. K. Feurer, F. Hutter, J. Bergstra, J. Snoek, Hoos, for and K. Leyton-Brown, “Towards an empirical foundation assessworkshop NIPS on in hyperparameters,” of optimization bayesian ing Practice, in Bayesian Optimization and Theory 2013, vol. h. eggensperger, m. k. feurer, f. hutter, j. bergstra, j. snoek, hoos, for and k. leyton-brown, “towards an empirical foundation assessworkshop nips on in hyperparameters”, by optimization bayesian ing practice, in bayesian optimization and theory 2013 (英語) 0.84
p. 3. 10, Sundaram, N. N. O. J. Snoek, Rippel, K. Swersky, Kiros, Satish, R. M. Patwary, M. Prabhat, and R. Adams, “Scalable bayesian optimization International conference on machine networks,” using deep neural in learning, 2171–2180. p.3。 10 Sundaram, N. N. O. J. Snoek, Rippel, K. Swersky, Kiros, Satish, R. M. Patwary, M. Prabhat, R. Adams, “Scalable Bayesian Optimization International conference on Machine Network”, using Deep Neural in learning, 2171–2180”。 0.89
pp. 2015, “Fast F. Hutter, and S. Bartels, S. A. Klein, bayesian P. Hennig, Falkner, datasets,” large on hyperparameters learning of machine optimization in Statistics. pp. 2015年の“Fast F. Hutter, and S. Bartels, S. A. Klein, Bayesian P. Hennig, Falkner, datasets”は、統計学におけるマシン最適化のハイパーパラメータ学習に大きく依存している。
訳抜け防止モード: pp. 2015年の“Fast F. Hutter, and S. Bartels, S. A. Klein”。 Bayesian P. Hennig, Falkner, datasets, ” Large on hyperparameters learning of machine optimization in Statistics.
0.90
Artificial Intelligence and pp. 2017, PMLR, 528–536. 人工知能とP。 2017年、PMLR 528-536。 0.63
Klein, S. Falkner, A. and F. Hutter, “Bohb: Robust and efficient arXiv preprint arXiv:1807.01774, hyperparameter optimization at scale,” 2018. optimization algorithms. Klein, S. Falkner, A. and F. Hutter, “Bohb: Robust and efficient arXiv preprint arXiv:1807.01774, hyperparameter optimization at scale”. 2018. 最適化アルゴリズム 0.91
evolutionary using K. Deb, 16. 進化論 k. deb, 16。 0.61
John Wiley & Sons, vol. John Wiley & Sons, Vol。 0.81
C. A. C. Coello, G. B. Lamont, D. A. C. A. C. Coello, G. B. Lamont, D. A. 0.80
Van Veldhuizen et al , Evolutionary solving multi-objective problems. Van Veldhuizen et al , Evolutionary solve multi-objective problem。 0.89
for algorithms Springer, 2007, vol. アルゴリズムについては Springer, 2007。 0.77
5. architecture neural “Deep and B. Yang, L. Ma, deep J. Cui, search with International IEEE/WIC/ACM 2019 graph optimization,” in bayesian Intelligence on Web Conference (WI), 500–507. 5. アーキテクチャ ニューラル “Deep and B. Yang, L. Ma, Deep J. Cui, search with International IEEE/WIC/ACM 2019 graph optimization”, Bayesian Intelligence on Web Conference (WI), 500–507。 0.94
pp. 2019, Patton, P. Karnowski, and R. M. S. R. Young, D. C. Rose, T. S.-H. Lim, “Optimizing an deep learning hyper-parameters through evolutionary Proceedings of the Workshop Learning in on Machine algorithm,” in Environments, Computing High-Performance 1–5. pp. 2019, patton, p. karnowski, r. m. s. r. young, d. c. rose, t. s.-h. lim, "機械学習ハイパーパラメータの最適化は,ワークショップの機械アルゴリズムによる学習の進化過程を通じて行われる。 0.81
pp. 2015, Multi-objective 2001, pp. 2015, 多目的2001年。 0.76
英語(論文から抽出)日本語訳スコア
10 [29] [30] [31] 10 [29] [30] [31] 0.85
[32] [33] [34] [32] [33] [34] 0.85
[35] [36] [37] [35] [36] [37] 0.85
[38] [39] [40] [38] [39] [40] 0.85
[41] [42] [43] [44] [41] [42] [43] [44] 0.85
[45] [46] [47] [45] [46] [47] 0.85
on selection オン selection~ 0.69
and Information K.-C. Wong, C. for framework そして 情報 フレームワークのためのK.-C. Wong, C. 0.67
and Shirakawa, Nagao, S. T. Suganuma, M. “A genetic programming convolutional neural designing approach to network architectures,” in evolutionary and the genetic of Proceedings computation conference, 2017, 497–504. そして、kawa, nagao, s. t. suganuma, m. “a genetic programming convolutional neural design approach to network architectures” in evolutionary and the genetic of proceedings computation conference, 2017 497–504。 0.87
pp. the Proceedings of IEEE “Genetic Yuille, A. Xie L. cnn,” in and (ICCV), Oct Vision Computer Conference International on 2017. pp. The Proceedings of IEEE “Genetic Yuille, A. Xie L. cnn” in and (ICCV), Oct Vision Computer Conference International on 2017 0.83
P. Huang, J. Chen, Z. Zhu, Q. Q. Lin, Z. P. Huang, J. Chen, Z. Zhu, Q. Q. Lin, Z 0.93
Du, Liang, W. Wang, Z. Zhu, hybrid and Ming, “A novel adaptive crossover operator for Z. multiInformation Sciences, objective evolutionary algorithm,” vol. Du, Liang, W. Wang, Z. Zhu, hybrid and Ming, “A novel adapt crossover operator for Z. multiInformation Sciences, objective evolution algorithm”。 0.81
345, pp. 2016. 345, pp。 2016. 0.82
177–198, J. Chen, Lin, W. Chen, K.-C. Wong, C. A. C. Coello, Q. J. Li, Zhu, Q. external J. Zhang, and archive-guided multiobjective “An particle swarm cybernetics, IEEE transactions algorithm,” optimization vol. 177–198, j. chen, lin, w. chen, k.-c. wong, c. a. c. coello, q. j. li, zhu, q. external j. zhang, and archive-guided multiobjectiveded "a particle swarm cybernetics, ieee transactions algorithm", optimization vol 0.75
47, no. 9, pp. 2017. 47だ 9、p。 2017. 0.64
2794–2808, W. Wang, S. Yang, Q. Lin, Q. 2794-2808, W. Wang, S. Yang, Q. Lin, Q。 0.78
A. C. Coello, Zhang, effective Chen, J. and multiobjective “An ensemble on Evolutionary Computation, IEEE Transactions 23, optimization,” vol. A.C. Coello, Zhang, effective Chen, J. and multijective “An ensemble on Evolutionary Computation, IEEE Transactions 23 optimization”。 0.78
2018. no. 4, pp. 2018年。 4, pp。 0.68
645–659, Q. Lin, Z. Liu, Q. Yan, Z. 645–659, Q. Lin, Z. Liu, Q. Yan, Z。 0.84
Du, C. A. C. Coello, Z. Liang, W. Wang, and J. Chen, “Adaptive composite control parameter operator Sciences, vol. Du, C. C. Coello, Z. Liang, W. Wang, J. Chen, “Adaptive Composite Control parameter operator Sciences, vol.”。 0.96
for evolutionary multiobjective algorithm,” 2016. pp. 進化的多目的アルゴリズムのために”、2016年。 0.64
339, 332–352, or “Pareto and X. Liu, M. Li, S. Yang, evolution non-pareto: Bi-criterion on IEEE Transactions Evolutionary optimization,” in multiobjective Computation, vol. 339, 332–352, or "Pareto and X. Liu, M. Li, S. Yang, evolution non-pareto: Bi-criterion on IEEE Transactions Evolutionary optimization" in multiobjective Computation, vol。 0.93
20, no. 5, pp. 20だ 5, pp。 0.60
2015. 645–665, S. Yang, W. Wang, Q. Lin, and co-evolutionary pso-de “A novel J. Chen, conferInternational algorithm based framework,” decomposition on in communication. 2015. 645-665, S. Yang, W. Wang, Q. Lin, and co-evolutionary pso-de “A novel J. Chen, conferInternational algorithm based framework”。 0.86
and ence on computing smart 2016, pp. and ence on computing smart 2016 pp. (英語) 0.76
Springer, 381–389. スプリンガー381-389。 0.59
“Surrogate-assisted T. Chugh, C. Sun, H. Wang, and Y. Jin, evolutionary Simulation-Based in High-Performance optimization problems,” of large Optimization. Surrogate-assisted T. Chugh, C. Sun, H. Wang, Y. Jin, Evolution Simulation-based in High-Performance Optimization problems” は大規模な最適化である。 0.75
165–187. 2020, Springer, pp. 165–187. 2020年、春田、p。 0.70
Pang, L. Neural “Immunecs: W. Frachon, and G. M. arXiv preprint immune artificial an by search committee system,” arXiv:1911.07729, 2019. Pang, L. Neural “Immunecs: W. Frachon, and G. M. arXiv preprint immune an by search committee system” arXiv:1911.07729, 2019。 0.95
“Hyper-parameter E. Bochinski, T. Senst, and T. optimization for convolutional neural network on albased evolutionary Image Processing on IEEE International Conference 2017 gorithms,” in (ICIP), 3924–3928. ハイパーパラメータ e. bochinski, t. senst, and t. optimization for convolutional neural network on al based evolutionary image processing on ieee international conference 2017 gorithms” in (icip), 3924–3928 (英語) 0.85
pp. 2017, transferable “Learning Le, and Q. V. Shlens, J. Zoph, V. Vasudevan, B. in Proceedings of the IEEE architectures recognition,” image for scalable pattern and conference computer vision recognition, on 2018, pp. pp. 2017年の“Learning Le, and Q. V. Shlens, J. Zoph, V. Vasudevan, B. in Proceedings of the IEEE Architectures Recognition”で,スケーラブルなパターンとカンファレンスコンピュータビジョン認識のためのイメージが,2018, pp。 0.87
8697– 8710. 8697– 8710. 0.94
F. Hutter, A. deep “Towards and Falkner, S. automated Zela, A. Klein, search,” hyperparameter and architecture learning: joint neural Efficient arXiv:1807.06906, arXiv preprint 2018. F. Hutter, A. Deep “Towards and Falkner, S. automated Zela, A. Klein, search”, hyperparameter and architecture learning: joint neural Efficient arXiv:1807.06906, arXiv preprint 2018。 0.96
E. Real, A. Aggarwal, Y. Huang, and Q. V. Le, “Regularized evolution Proceedings of the aaai for architecture search,” image in classifier intelligence, artificial conference on 4780–4789. E. Real, A. Aggarwal, Y. Huang, Q. V. Le, “Regularized Evolution Proceedings of the aaai for Architecture Search”, Image in Classifier Intelligence, artificial conference on 4780–4789。 0.91
pp. 2019, 33, vol. pp. 2019年、33頁。 0.74
et al , continuous for “Simulated binary crossover K. Deb, R. B. Agrawal systems, Complex 1995. を連続的に "Simulated binary crossover K. Deb, R. B. Agrawal system, Complex 1995" とする。 0.83
115–148, pp. 9, vol. 115-148頁。 9、Vol。 0.68
search no. space,” 2, M. S. B. M. Sultan, A. Mustapha, and Lim, A. M. N. Sulaiman, K. “Crossover and mutation operators of genetic algorithms,” Leong, International Journal of Machine Learning and Computing, vol. 検索なし。 M.S. B. M. Sultan, A. Mustapha, and Lim, A. M. N. Sulaiman, K. “Crossover and mutation operator of genetic algorithm”, Leong, International Journal of Machine Learning and Computing, Vol.. 0.75
7, no. 1, pp. 7位はノー。 1、p。 0.68
2017. 9–12, Campress,” mit algorithms genetic “An M. Mitchell, to introduction London, bridge, Massachusetts. 2017. 9–12, Campress, mit algorithm genetic "An M. Mitchell, to introduction London, bridge, Massachusetts。 0.85
England, 1996. vol. 1996年、イギリス。 0.67
1996, computing, and Statistics genetic D. Whitley, “A algorithm tutorial,” vol. 1996年、コンピューティングと統計遺伝学のD. Whitley, “A algorithm tutorial” vol。 0.85
65–85, 1994. 65–85, 1994. 0.84
4, no. 2, pp. 4位はノー。 2、p。 0.66
T. Meyarivan, and Agarwal, S. A. K. elitist and Pratap, fast “A Deb, transactions IEEE on evolumultiobjective genetic algorithm: Nsga-ii,” tionary computation, 182–197, vol. t. meyarivan, and agarwal, s. a. k. elitist and pratap, fast "a deb, transactions ieee on evolumultiobjective genetic algorithm: nsga-ii", tionary computation, 182–197, vol. (英語)
訳抜け防止モード: T. Meyarivan, and Agarwal, S. A. K. elitist and Pratap fast “A Deb, transactions IEEE on evolumultiobjective genetic algorithm: Nsga - ii” 任意の計算 , 182–197 , vol 。
0.94
6, no. 2, pp. 6、ノー。 2、p。 0.67
2002. Sikora, committees 2002. シコラ委員会 0.70
Coghill, Coghill 0.46
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。