論文の概要、ライセンス

# (参考訳) 車種分類のためのハイブリッド量子ニューラルネットワークのハイパーパラメータ最適化 [全文訳有]

Hyperparameter optimization of hybrid quantum neural networks for car classification ( http://arxiv.org/abs/2205.04878v1 )

ライセンス: CC BY 4.0
Asel Sagingalieva, Andrii Kurkin, Artem Melnikov, Daniil Kuhmistrov, Michael Perelshtein, Alexey Melnikov, Andrea Skolik, David Von Dollen(参考訳) 画像認識は機械学習アルゴリズムの主要な応用の1つである。 それでも、現代の画像認識システムで使用される機械学習モデルは、調整にかなりの計算時間を必要とする数百万のパラメータで構成されている。 さらに、モデルハイパーパラメータの調整は、さらなるオーバーヘッドをもたらす。 このため、機械学習モデルとハイパーパラメータ最適化技術の新しい開発が必要である。 本稿では,量子インスパイアされたハイパーパラメータ最適化手法と,教師付き学習のためのハイブリッド量子古典機械学習モデルを提案する。 我々は,標準ブラックボックスの目標関数に対してハイパーパラメータ最適化手法をベンチマークし,探索空間の大きさの増大に応じて,予測実行時間と適合度を削減した形での性能改善を観察する。 我々は,車載画像分類タスクにおけるアプローチを検証し,テンソルトレインハイパーパラメータ最適化を用いたハイブリッド量子ニューラルネットワークモデルの実装を実演する。 実験では,ニューラルネットワークResNet34で使用する標準標準のグラフグリッド探索手法に対して,定性的かつ定量的な優位性を示した。 分類精度0.97は18イテレーション後にハイブリッドモデルにより得られたが、古典モデルは75イテレーション後に0.92の精度を達成した。

Image recognition is one of the primary applications of machine learning algorithms. Nevertheless, machine learning models used in modern image recognition systems consist of millions of parameters that usually require significant computational time to be adjusted. Moreover, adjustment of model hyperparameters leads to additional overhead. Because of this, new developments in machine learning models and hyperparameter optimization techniques are required. This paper presents a quantum-inspired hyperparameter optimization technique and a hybrid quantum-classical machine learning model for supervised learning. We benchmark our hyperparameter optimization method over standard black-box objective functions and observe performance improvements in the form of reduced expected run times and fitness in response to the growth in the size of the search space. We test our approaches in a car image classification task, and demonstrate a full-scale implementation of the hybrid quantum neural network model with the tensor train hyperparameter optimization. Our tests show a qualitative and quantitative advantage over the corresponding standard classical tabular grid search approach used with a deep neural network ResNet34. A classification accuracy of 0.97 was obtained by the hybrid model after 18 iterations, whereas the classical model achieved an accuracy of 0.92 after 75 iterations.
公開日: Tue, 10 May 2022 13:25:36 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] h pt n a u q [ ] h pt n a u q [ 0.42
1 v 8 7 8 4 0 1 v 8 7 8 4 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Hyperparameter optimization of hybrid quantum neural networks for car classification 車種分類のためのハイブリッド量子ニューラルネットワークのハイパーパラメータ最適化 0.76
Asel Sagingalieva, Andrii Kurkin, Artem Melnikov, Daniil Kuhmistrov, Michael Perelshtein, and Alexey Melnikov Asel Sagingalieva、Andrii Kurkin、Artem Melnikov、Daniil Kuhmistrov、Michael Perelshtein、Alexey Melnikov 0.72
Terra Quantum AG, 9400 Rorschach, Switzerland terra quantum ag, 9400 rorschach, スイス 0.76
Andrea Skolik1,3 and David Von Dollen2,3 1Volkswagen Data:Lab, 80805 Munich, Germany Andrea Skolik1,3 and David Von Dollen2,3 1Volkswagen Data:Lab, 80805 Munich, Germany 0.41
2Volkswagen Group of America, Auburn Hills, MI 48326, USA and 2Volkswagen Group of America, Auburn Hills, MI 48326, USA and 0.46
3Leiden University, 2333 CA Leiden, The Netherlands 3leiden university, 2333 ca leiden, オランダ 0.70
Image recognition is one of the primary applications of machine learning algorithms. 画像認識は機械学習アルゴリズムの主要な応用の1つである。 0.87
Nevertheless, machine learning models used in modern image recognition systems consist of millions of parameters that usually require significant computational time to be adjusted. それでも、現代の画像認識システムで使用される機械学習モデルは、調整にかなりの計算時間を必要とする数百万のパラメータで構成されている。 0.66
Moreover, adjustment of model hyperparameters leads to additional overhead. さらに、モデルハイパーパラメータの調整は、さらなるオーバーヘッドをもたらす。 0.70
Because of this, new developments in machine learning models and hyperparameter optimization techniques are required. このため、機械学習モデルとハイパーパラメータ最適化技術の新しい開発が必要である。 0.86
This paper presents a quantum-inspired hyperparameter optimization technique and a hybrid quantum-classical machine learning model for supervised learning. 本稿では,量子インスパイアされたハイパーパラメータ最適化手法と,教師付き学習のためのハイブリッド量子古典機械学習モデルを提案する。 0.62
We benchmark our hyperparameter optimization method over standard black-box objective functions and observe performance improvements in the form of reduced expected run times and fitness in response to the growth in the size of the search space. 我々は,標準ブラックボックスの目標関数に対してハイパーパラメータ最適化手法をベンチマークし,探索空間の大きさの増大に応じて,予測実行時間と適合度を削減した形での性能改善を観察する。 0.76
We test our approaches in a car image classification task, and demonstrate a full-scale implementation of the hybrid quantum neural network model with the tensor train hyperparameter optimization. 我々は,車載画像分類タスクにおけるアプローチを検証し,テンソルトレインハイパーパラメータ最適化を用いたハイブリッド量子ニューラルネットワークモデルの実装を実演する。 0.76
Our tests show a qualitative and quantitative advantage over the corresponding standard classical tabular grid search approach used with a deep neural network ResNet34. 実験では,ニューラルネットワークResNet34で使用する標準標準のグラフグリッド探索手法に対して,定性的かつ定量的な優位性を示した。 0.68
A classification accuracy of 0.97 was obtained by the hybrid model after 18 iterations, whereas the classical model achieved an accuracy of 0.92 after 75 iterations. 分類精度0.97は18イテレーション後にハイブリッドモデルにより得られたが、古典モデルは75イテレーション後に0.92の精度を達成した。 0.80
INTRODUCTION The field of quantum computing has seen large leaps in building usable quantum hardware during the past decade. 導入 量子コンピューティングの分野は、過去10年間に使用可能な量子ハードウェアの構築において大きな飛躍を遂げてきた。 0.57
As one of the first vendors, D-Wave provided access to a quantum device that can solve specific types of optimization problems [1]. 最初のベンダーの1つとして、d-waveは特定のタイプの最適化問題を解決できる量子デバイスへのアクセスを提供した[1]。 0.73
Motivated by this, quantum computing has not only received much attention in the research community, but was also started to be perceived as a valuable technology in industry. これにより、量子コンピューティングは研究コミュニティで大きな注目を集めるだけでなく、産業における価値のある技術として認識されるようになった。 0.74
Volkswagen published a pioneering result on using the D-Wave quantum annealer to optimize traffic flow in 2017 [2], which prompted a number of works by other automotive companies [3–5]. Volkswagen氏は、2017 [2]でトラフィックフローを最適化するためにD-Wave量子アニールを使用した先駆的な結果を発表した。 0.57
Since then, quantum annealing has been applied in a number of industry-related problems like chemistry [6, 7], aviation [8], logistics [9] and finance [10]. それ以来、量子アニールは化学 [6, 7], 航空 [8], 物流 [9], 金融 [10] など、多くの産業関連問題に応用されてきた。 0.78
Aside from quantum annealing, gate-based quantum devices have gained increased popularity, not least after the first demonstration of a quantum device outperforming its classical counterparts [11]. 量子アニーリング以外にも、ゲートベースの量子デバイスの人気が高まっている。
訳抜け防止モード: 量子アニール以外にも、ゲートベースの量子デバイスが人気を博している。 量子デバイスの最初のデモが 古典的[11]を上回りました
0.67
A number of industrymotivated works have since been published in the three main application areas that are currently of interest for gate-based quantum computing: optimization [12–16], quantum chemistry and simulation [17, 18], and machine learning [19–23]. 現在ゲートベースの量子コンピューティングに関心がある3つの主要な応用分野、最適化[12–16]、量子化学とシミュレーション[17,18]、機械学習[19–23]において、業界を動機づけた多くの研究が公表されている。 0.76
Research in the industrial context has been largely motivated by noisy intermediate-scale quantum (NISQ) devices – early quantum devices with a small number of qubits and no error correction. 工業的文脈における研究は、ノイズの多い中間スケール量子(NISQ)デバイス – 少数の量子ビットを持つ初期の量子デバイス – によって主に動機付けられている。 0.78
In this regime, variational quantum algorithms (VQAs) have been identified as the most promising candidate for near-term advantage due to their robustness to noise [24]. この状態において、変動量子アルゴリズム(VQA)は、ノイズに対する堅牢性のため、短期的優位性の最も有望な候補として特定されている[24]。 0.64
In a VQA, a parametrized quantum circuit (PQC) is optimized by a classical outer loop to solve a specific task like finding VQAでは、パラメタライズド量子回路(PQC)は古典的な外ループによって最適化され、探索のような特定の課題を解決する。 0.70
the ground state of a given Hamiltonian or classifying data based on given input features. 与えられたハミルトニアンまたは与えられた入力特徴に基づく分類データの基底状態。 0.78
As qubit numbers are expected to stay relatively low within the next years, hybrid alternatives to models realized purely by PQCs have been explored [25–30]. 量子ビット数は今後数年で比較的低くなると予想されるため、PQCによって純粋に実現されたモデルに対するハイブリッドな代替品が[25-30]探索されている。 0.58
In these works, a quantum model is combined with a classical model and optimized end-to-end to solve a specific task. これらの研究において、量子モデルは古典的なモデルと、特定のタスクを解決するために最適化されたエンドツーエンドとを組み合わせる。
訳抜け防止モード: これらの研究において、量子モデルは古典モデルと最適化された終端とを組み合わせる --終り 特定のタスクを解決する。
0.67
In the context of machine learning, this means that a PQC and neural network (NN) are trained together as one model, where the NN can be placed either before or after the PQC in the chain of execution. 機械学習の文脈では、PQCとニューラルネットワーク(NN)が1つのモデルとしてトレーニングされ、実行の連鎖の中でPQCの前または後のいずれかにNNを配置できる。 0.78
When the NN comes first, it can act as a dimensionality reduction technique for the quantum model, which can then be implemented with relatively few qubits. nnが最初に現れると、量子モデルの次元性低減技術として作用し、比較的少数の量子ビットで実装することができる。 0.70
In this work, we use a hybrid quantum-classical model to perform image classification on a subset of the Stanford Cars data set [31]. 本研究では,ハイブリッド量子古典モデルを用いて,スタンフォード自動車データセット [31] のサブセット上で画像分類を行う。 0.83
Image classification is an ubiquitous problem in the automotive industry, and can be used for tasks like sorting out parts with defects. 画像分類は自動車業界では至るところで問題であり、欠陥のある部分を分類するといったタスクに使用できる。 0.76
Supervised learning algorithms for classification have also been extensively studied in quantum literature [32–35], and it has been proven that there exist specific learning tasks based on the discrete logarithm problem where a separation between quantum and classical learners exists for classification [36]. 分類のための教師付き学習アルゴリズムも量子文学 [32–35] で広く研究されており、分類のために量子と古典の学習者との分離が存在する離散対数問題に基づく特定の学習課題が存在することが証明されている [36]。 0.85
While the separation in [36] is based on Shor’s algorithm and therefore not expected to transfer to realistic learning tasks as the car classification mentioned above, it motivates further experimental study of quantum-enhanced models for classification on real-world data sets. この[36]の分離はShorのアルゴリズムに基づいており、上述の車種分類のように現実的な学習タスクに移行することは期待されていないが、実際のデータセットの分類のための量子強化モデルのさらなる実験的研究を動機付けている。 0.71
In combining PQCs and classical NNs into hybrid quantum-classical models, we encounter a challenge in searching hyperparameter configurations that produce pqcsと古典nnをハイブリッド量子古典モデルに組み合わせることで、超パラメータ構成の探索が困難になる。 0.74
英語(論文から抽出)日本語訳スコア
performance gains in terms of model accuracy and training. モデル精度とトレーニングの点でパフォーマンスが向上します 0.86
Hyperparameters can be considered values that are set for the model and do not change during the training regime, and may include variables such as learning rate, decay rates, choice of optimizer for the model, number of qubits or layer sizes. ハイパーパラメータは、モデル用に設定され、トレーニングレジーム中に変化しない値と見なすことができ、学習率、減衰率、モデルに対するオプティマイザの選択、キュービット数、層サイズなどの変数を含むことができる。 0.76
Often in practice, these parameters are selected by experts based upon some a priori knowledge and trial-and-error. 多くの場合、これらのパラメータは事前知識と試行錯誤に基づいて専門家によって選択される。 0.65
This limits the search space, but in turn can lead to producing a suboptimal model configuration. これにより探索空間は制限されるが、結果として準最適モデル構成を生成することができる。 0.65
Hyperparameter optimization is the process of automating the search for the best set of hyperparameters, reducing the need for expert knowledge in hyperparameter configurations for models, with an increase in computation required to evaluate configurations of models in search of an optimum. ハイパーパラメータ最適化(Hyperparameter optimization)は、最適なハイパーパラメータの探索を自動化するプロセスであり、モデルに対するハイパーパラメータ構成における専門知識の必要を減らし、最適なモデル探索におけるモデル構成を評価するのに必要な計算量を増やす。 0.81
In the 1990s, researchers reported performance gains leveraging a wrapper method, which tuned parameters for specific models and data sets using best-first search and cross validation [37]. 1990年代に研究者は、ベストファースト検索とクロスバリデーションを使用して特定のモデルやデータセットのパラメータをチューニングしたラッパーメソッドによるパフォーマンス向上を報告した [37]。 0.73
In more recent years, researchers have proposed search algorithms using bandits [38], which leverage early stopping methods. 近年,早期停止手法を利用した帯域幅[38]を用いた探索アルゴリズムが提案されている。 0.77
Successive Halving algorithms such as the one introduced in [39] and the parallelized version introduced in [40] allocate more resources to more promising configurations. 39]で導入されたHalvingアルゴリズムや[40]で導入された並列化バージョンは、より多くのリソースをより有望な構成に割り当てます。 0.79
Sequential model-based optimization leverages Bayesian optimization with an aggressive dual racing mechanism, and also has shown performance improvements for hyperparameter optimization [41, 42]. 逐次モデルに基づく最適化は、積極的なデュアルレーシング機構によるベイズ最適化を活用し、ハイパーパラメータ最適化 [41, 42] の性能改善も示した。 0.77
Evolutionary and population-based heuristics for black-box optimization have also achieved state-of-the-art results when applied to hyperparameter optimization in numerous competitions for black-box optimization [43–45]. ブラックボックス最適化のための進化的および集団ベースのヒューリスティックスも、ブラックボックス最適化の多くの競争においてハイパーパラメータ最適化に適用することで最先端の結果を得た [43–45]。 0.53
In recent years, a whole field has formed around automating the process of finding optimal hyperparameters for machine learning models, with some prime examples being neural architecture search [46] and automated machine learning (AutoML) [47]. 近年,機械学習モデルに最適なハイパーパラメータを見つけるプロセスの自動化を中心に,ニューラルネットワーク検索 [46] と自動機械学習 (AutoML) [47] が主要な例となっている。 0.77
Automating the search of hyperparameters in a quantum machine learning (QML) context has also started to attract attention, and the authors of [48] have explored the first version of AutoQML. 量子機械学習(QML)コンテキストにおけるハイパーパラメータの検索の自動化も注目され始めており、[48]の著者らはAutoQMLの最初のバージョンを探索している。 0.87
2 RESULTS A. Hyperparameter Optimization 2 結果 A.ハイパーパラメータ最適化 0.51
The problem of hyperparameter optimization (HPO) is described schematically in Fig 1(a). ハイパーパラメータ最適化(HPO)の問題は図1(a)にスキーマ的に記述されている。 0.72
Given a certain data set and a machine learning (ML) model, the learning model demonstrates an accuracy A(¯h) which depends on the hyperparameters ¯h. 特定のデータセットと機械学習(ML)モデルが与えられた場合、学習モデルはハイパーパラメーター .h に依存する精度 A( .h) を示す。 0.89
To achieve the best possible model accuracy, one has to optimize the hyperparameters. 最善のモデルの精度を達成するためには、ハイパーパラメータを最適化する必要がある。 0.68
To perform the HPO, an unknown black-box function A(¯h) has to be explored. HPOを実行するには、未知のブラックボックス関数 A( sh) を探索する必要がある。 0.69
The exploration is an iterative process, where at each iteration the HPO algorithm provides a set of hyperparameters ¯h and receives the corresponding model accuracy A(¯h). 探索は反復的なプロセスであり、各イテレーションでHPOアルゴリズムはハイパーパラメーターのセットを供給し、対応するモデルの精度A( sh)を受信する。 0.85
As a result of this iterative process, the HPO algorithm outputs the best achieved performance A(¯hopt) with the corresponding hyperparameters ¯hopt. この反復的な処理の結果、HPOアルゴリズムは、対応するハイパーパラメーターのシャホープで最も達成された性能 A( shopt) を出力する。 0.72
The HPO could be organized in different ways. HPOは様々な方法で組織化できる。 0.73
One of the standard methods for HPO is a tabular method of grid search (GS), also known as a parameter sweep (Fig. HPOの標準手法の1つは、表計算によるグリッドサーチ(GS)であり、パラメータスイープ(Fig)とも呼ばれる。 0.67
1(b)). To illustrate how a grid search works, we have chosen two hyperparameters: the learning rate (h1) and the multiplicative factor of learning rate (h2). 1(b))である。 グリッド探索の動作を説明するために,学習率(h1)と学習率の乗算係数(h2)という2つのハイパーパラメータを選択した。 0.78
They are plotted along the x-axis and the y-axis, respectively. これらはそれぞれx軸とy軸に沿ってプロットされる。 0.74
The color on the contour shows the accuracy of the model A(h1, h2) with two given hyperparameters changing from light pink (the lowest accuracy) to dark green (the highest accuracy). 輪郭の色はモデルA(h1, h2)の精度を示し、与えられた2つのハイパーパラメータは明るいピンク(最低精度)から暗い緑(最高精度)に変化する。 0.83
In the GS method, the hyperparameter values are discretized, which results in a grid of values shown as big dots. GS法では、ハイパーパラメータ値は離散化され、その結果、大きなドットとして示される値のグリッドとなる。 0.66
The GS algorithm goes through all the values from this grid with the goal of finding the maximum accuracy. GSアルゴリズムはこの格子から得られる全ての値を通過し、最大精度を求める。 0.71
As one can see in this figure, there are only three points at which this method can find a high accuracy with 25 iterations (shown as 25 points in Fig. 1(b)). この図でわかるように、この手法が25回(図1(b)に25個の点として表される)の精度で得られるのは3つの点のみである。 0.75
This example shows that there could be a better tabular HPO in terms of the best achievable accuracy and the number of iterations used. この例は、最高の達成可能な精度と使用するイテレーション数の観点から、より優れた表形式のHPOが存在することを示している。 0.67
B. Tensor train approach to hyperparameter b.ハイパーパラメータへのテンソルトレインアプローチ 0.57
optimization Our contribution in this paper is not only to examine the performance gains of hybrid quantum-classical models vs. purely classical, but also to investigate whether quantum-enhanced or quantum-inspired methods may offer an advantage in automating the search over the configuration space of the models. 最適化 本論文の貢献は,ハイブリッド量子古典モデルと純粋古典モデルの性能向上を検討するだけでなく,量子エンハンシング法と量子インスパイア法がモデルの構成空間上での探索の自動化に有用かどうかを検討することである。 0.74
We show a reduction in computational complexity in regard to expected run times and evaluations for various configurations of models, the high cost of which motivate this investigation. 本研究は, 予測実行時間に対する計算複雑性の低減と, 様々なモデル構成の評価を行い, 研究の動機となる高いコストについて述べる。 0.78
We investigate using the tensor train decomposition for searching the hyperparameter space of the HQNN framed as a global optimization problem as in [49]. 本研究では,[49] のグローバル最適化問題として,HQNN のハイパーパラメータ空間の探索にテンソルトレイン分解を用いて検討する。 0.76
This method has been successful in optimizing models of social networks in [50], and as a method of compression for deep neural networks [51]. この手法は,[50]におけるソーシャルネットワークのモデル最適化や,[51]におけるディープニューラルネットワークの圧縮手法として成功している。 0.84
Here, we propose a quantum-inspired approach to hyperparameter optimization based on the tensor train (TT) programming. 本稿では、テンソルトレイン(TT)プログラミングに基づく超パラメータ最適化に対する量子的アプローチを提案する。 0.79
The TT approach was initially introduced in the context of quantum many-body system analysis, e g , for finding a ground state with minimal energy of multi-particle Hamiltonians via Density Matrix Renormalization Groups (DMRG) [52]. ttアプローチは、密度行列再正規化群 (dmrg) [52] を介して多粒子ハミルトニアンの最小エネルギーを持つ基底状態を見つけるために、量子多体系解析の文脈で最初に導入された。 0.76
In this approach, the ground state is represented in the TT format, often referred to as the Matrix Product State in physics [53]. このアプローチでは、基底状態はTT形式で表現され、しばしば物理学における行列生成状態 [53] と呼ばれる。 0.69
We employ the TT representation (shown in Fig 1(c)) in another way here, and use it for the hyperparameter optimization. ここではTT表現(図1(c)で表される)を別の方法で使用し、超パラメータ最適化に使用します。 0.80
As one can see in Fig 1(c), the TT is represented as a multiplication of tensors, where an individual tensor is shown as a circle with the number of “legs” that corresponds to the rank of the tensor. 図1(c)で見られるように、TT はテンソルの乗法として表され、個々のテンソルはテンソルのランクに対応する「レッグ」の数で円として示される。 0.54
h1 and hd circles h1およびhd円 0.88
英語(論文から抽出)日本語訳スコア
3 FIG. 1: The hyperparameter optimization problem description 3 FIG.1:ハイパーパラメータ最適化問題記述 0.64
(a). The tabular methods for hyperparameter optimization: the grid search algorithm (a) ハイパーパラメータ最適化のための表法:グリッド探索アルゴリズム 0.56
(b) and the tensor train algorithm (c-d). (b)およびテンソルトレインアルゴリズム(c-d)。 0.60
are the matrices of n × r dimension, and {hi}i=d−1 is a rank 3 tensor of dimensions n×r2. n × r 次元の行列であり、 {hi}i=d−1 は n×r2 次元のランク3テンソルである。 0.81
The two arrows in the Fig. 1(c) illustrate sweeps right and left along with the TT. 図1(c)の2つの矢印は、TTとともに左右のスイープを描いている。 0.68
This refers to the algorithm described below. これは下記のアルゴリズムを指す。 0.67
Leveraging the locality of the problem, i.e., a small correlation between hyperparameters, we perform the black-box optimization based on the cross-approximation technique applied for tensors [54, 55]. 問題の局所性、すなわちハイパーパラメータ間の小さな相関を利用して、テンソル [54, 55] に適用されるクロス近似法に基づいてブラックボックス最適化を行う。 0.79
i=2 Similar to the previously discussed GS method, we discretize the hyperparameter space with TT optimization (TTO) and then consider a tensor composed of scores that can be estimated by running an ML model with a corresponding set of hyperparameters. i=2 先述したGS法と同様に、TT最適化(TTO)を用いてハイパーパラメータ空間を離散化し、対応するハイパーパラメータのセットでMLモデルを実行することで推定できるスコアからなるテンソルを考える。 0.55
However, compared to GS, the TT method is dynamic, which means that the next set of evaluating points in the hyperparameter space is chosen based on the knowledge accumulated during all previous evaluations. しかし、gsと比較して、tt法は動的であり、つまり、ハイパーパラメータ空間における次の評価点のセットは、前回のすべての評価で蓄積された知識に基づいて選択される。
訳抜け防止モード: しかし、GSと比較してTT法は動的である。 つまり、全ての過去の評価で蓄積された知識に基づいて、ハイパーパラメータ空間における次の評価点が選択される。
0.68
With TTO we will not estimate all the scores A(¯h) available to the model. TTOでは、モデルで利用可能なすべてのスコアA( sh)を見積もることはできません。 0.66
Instead of this, we will approximate A(¯h) via TT, referring to a limited number of tensor elements using the crossapproximation method [54]. これの代わりに、交叉近似法 [54] を用いて、限られた数のテンソル要素を参照して、tt を通じて a(-h) を近似する。 0.64
During the process, new sets of hyperparameters for which the model needs to be evaluated are determined using the MaxVol routine [56]. プロセス中、モデルを評価する必要がある新しいハイパーパラメータセットがmaxvolルーチン[56]を使用して決定される。 0.78
The MaxVol routine is an algorithm that finds an r × r submatrix of maximum volume, i.e., a square matrix with a maximum determinant module in an n × r matrix. maxvol ルーチンは最大体積の r × r 部分行列、すなわち n × r 行列における最大決定性加群を持つ正方行列を求めるアルゴリズムである。 0.74
Hyperparameters are changed in an iterative process, in which one is likely to find a better accuracy A(¯h) after ハイパーパラメータは反復的なプロセスで変化し、そこでは、より良い精度のA( sh)が見つかる。 0.73
each iteration, and thus find a good set of hyperparameters. それぞれのイテレーションで、適切なハイパーパラメータセットを見つけます。 0.67
Notably, the TTO algorithm requires an estimate of O(dnr2) elements and O(dnr3) of calculations, where d is the number of hyperparameters, n is a number of discretization points, and r is a fixed rank. 特に、TTOアルゴリズムは計算のO(dnr2) 要素とO(dnr3) の見積もりを必要とし、d はハイパーパラメータの数、n は離散化点の数、r は固定ランクである。
訳抜け防止モード: 特に、TTOアルゴリズムはO(dnr2 ) 要素の推定を必要とする。 d がハイパーパラメータの数である計算の O(dnr3 ) である。 n は数個の離散化点であり、 rは固定ランクだ
0.80
If one compares it with the GS algorithm, which requires estimation of O(nd) elements, one is expected to observe practical advantages, especially with a large number of hyperparameters. これを o(nd) 要素の推定を必要とする gs アルゴリズムと比較すると、特に多くのハイパーパラメータにおいて、実用上の利点が期待できる。 0.69
The TTO algorithm for the HPO is presented as the Algorithm 1 pseudocode that also corresponds to Fig. 1(d). HPOのTTOアルゴリズムは、図1(d)に対応するアルゴリズム1擬似コードとして提示される。 0.73
The TTO algorithm can be described with 9 steps: TTOアルゴリズムは以下の9ステップで記述できる。 0.79
1. Suppose each of d hyperparameters is defined on ], where i ∈ [1, d]. 1. i ∈ [1, d] のとき、d 個のハイパーパラメータが ] 上で定義されると仮定する。 0.71
some interval hi ∈ [hmin One first discretizes each of d hyperparameters by defining n points ある区間 hi ∈ [hmin One が最初 d 個のハイパーパラメータを n 個の点を定義することによって離散化する 0.60
, hmax i i ハマックス 私は 私は 0.54
{hi(1), hi(2), . . . , hi(n)}i=d i=1. hi(1), hi(2), . . , hi(n)}i=d i=1 である。 0.87
2. Then, we need to choose the rank r. 2. すると、ランク r を選択する必要がある。 0.75
This choice is a trade-off between computational time and accuracy, which respectively require a small and a large rank. この選択は計算時間と精度のトレードオフであり、それぞれ小さなランクと大きなランクを必要とする。 0.70
3. r combinations of 2(j), h1 3. 2(j), h1 の r 結合 0.77
{h1 are chosen. h1 が選択される。 0.63
3(j), . . . , h1 d(j)}j=r j=1. 3(j),h1。 d(j)}j=rj=1。 0.47
(1) Grid search Hyperparameter optimizationDatasetD eeplearningmodel Hyperparameteroptimi zationalgorithmOptim al set ofhyperparameters giving best performanceModel accuracy Set ofhyperparameters (1) grid search hyperparameter optimizationdatasetd eeplearningmodel hyperparameteroptimi zationalgorithmmal set of hyperparameters giving best performancemodel accuracy set of hyperparameters 0.31
英語(論文から抽出)日本語訳スコア
Algorithm 1 Tensor Train Optimization アルゴリズム1 テンソルトレイン最適化 0.71
1: Accuracy A(¯hopt) = 0 2: iswp = 1 3: Core = 1 4: jswp = 1 5: Discretize each of d hyperparameters with n points 6: Randomly choose r combinations of (h2, h3, . . . , hd) 7: while iswp ≤ nswp do while jswp ≤ 2 do 1: 精度 a(\hopt) = 0 2: iswp = 1 3: core = 1 4: jswp = 1 5: 各dハイパーパラメータを n 点 6: (h2, h3, . . . , hd) 7: iswp ≤ nswp に対して、jswp ≤ 2 では r の組み合わせをランダムに選択する。 0.89
8: 9: 10: 11: 8: 9: 10: 11: 0.42
while Core < d do core < d の場合 0.66
if Core == 1 then core == 1 の場合 0.85
Estimate A(h) of nr elements with all n val- すべての n val を持つ nr 要素の A(h) の推定- 0.83
ues of h1 12: 13: 14: 15: 16: 17: 18: h1のues 12: 13: 14: 15: 16: 17: 18: 0.43
if A(¯hopt) < A(¯h) then A( shopt) < A( sh) ならば 0.58
A(¯hopt) = A(¯h) A( shopt) = A( sh) 0.30
end if MaxVol Fix corresponding r values of h1 MaxVol が h1 の対応する r 値を固定するなら 0.72
else Estimate A(¯h) of nr2 elements for fixed その他 固定化のためのnr2要素のa(-h)の推定 0.61
(h1, . . . , hCore−1) with all n values of hCore (h1, . , hCore−1) と hCore のすべての n 値 0.93
if A(¯hopt) < A(¯h) then A( shopt) < A( sh) ならば 0.58
A(¯hopt) = A(¯h) A( shopt) = A( sh) 0.30
end if MaxVol Fix corresponding r values of (h1, . . . , hCore) MaxVol が対応する r の値 (h1 , . . , hCore) を固定すると終了する。 0.78
19: 20: 21: 22: 23: 24: 25: 26: 27: 28: 29: 30: 31: 32: 33: 34: end while 19: 20: 21: 22: 23: 24: 25: 26: 27: 28: 29: 30: 31: 32: 33: 34: end while 0.42
end while jswp = 1 iswp = iswp + 1 終端 jswp = 1 iswp = iswp + 1 0.37
end if Core = Core + 1 Core = Core + 1 の場合の終了 0.80
end while Change index order (hd, . . . , h1) Relabel (h1, . . . , hd) Core = 1 jswp = jswp + 1 end while change index order (hd, . . . . , h1) relabel (h1, . . . . , hd) core = 1 jswp = jswp + 1
訳抜け防止モード: 変更中のインデックスの順序 (hd, . . .) を終了する。 h1 ) Relabel (h1, ., hd ) Core = 1 jswp = jswp + 1
0.88
4. In the next three steps, we implement an iterative process called the “sweep right”. 4. 次の3ステップでは、"sweep right"と呼ばれる反復プロセスを実行します。 0.79
The first step of this iterative process is related to the first TT core evaluation: この反復プロセスの最初のステップは、最初のTTコア評価に関連している。 0.76
• The accuracy of nr elements is estimated with all n values of the first hyperparameter {h1(i1)}i1=n i1=1 and for the r combinations of {h1 3(j), . . . , h1 • nr 要素の精度は、第1のハイパーパラメータ {h1(i1)}i1=n i1=1 のすべての n 値、および {h1 3(j) の r 組み合わせで推定される。 0.93
d(j)}j=r j=1: d(j)}j=rj=1: 0.43
2(j), h1 {A(h1(i1), h1 2(j), h1 3(j), . . . , d(j))}j=r,i1=n h1 j=1,i1=1. 2(j), h1 {A(h1(i1), h1 2(j), h1 3(j), . , d(j))}j=r,i1=n h1 j=1,i1=1。 0.48
(2) • In this matrix of size n×r we search for a submatrix with maximum determinant module: {A(h1 (2) • サイズ n×r のこの行列では、最大行列加群を持つ部分行列を探索する: {A(h1) 0.56
d(j))}j=r,i1=r j=1,i1=1. d(j))}j=r,i1=rj=1,i1=1。 0.34
1(i1), h1 2(j), h1 1(i1)、h1 2(j),h1 0.61
3(j), h1 (3) 3(j),h1 (3) 0.40
The corresponding r values of the first hyperparameter are fixed {h1 第1のハイパーパラメータの対応する r 値は固定 {h1 0.86
1(i1)}i1=r i1=1. 1(i1)}i1=ri1=1。 0.33
• We fix r values {h1 step as well 4(j), . . . , h1 • r の値 {h1 も 4(j), . . , h1 も修正する。 0.78
1(i1)}i1=r i1=1 of the previous as r combinations {h1 d(j)}j=r j=1 of the third step. 1(i1)}i1=r i1=1 以前の r の組合せは {h1 d(j)}j=r j=1 である。 0.72
We, then, estimate the accuracy of the nr2 elements with all n values of the second hyperparameter {h2(i2)}i2=n i2=1 : 次に、第2ハイパーパラメータ {h2(i2)}i2=n i2=1 : の全ての n 値を持つ nr2 要素の精度を推定する。 0.74
3(j), h1 {A(h1 3(j),h1 a(h1) である。 0.41
1(i1), h2(i2), h1 1(i1)、h2(i2)、h1 0.79
3(j), . . . , d(j))}j=r,i1=r,i2=n h1 j=1,i1=1,i2=1‘ 3(j), . , d(j))}j=r,i1=r,i2=n h1 j=1,i1=1,i2=1′ 0.38
4 (4) • Again, in this matrix of size nr × r we search for a submatrix with the maximum determinant module: 4 (4) • 再び、この大きさの行列 nr × r において、最大行列加群を持つ部分行列を探索する。 0.51
{A((h2 1(k), h2 {A((h2) 1(k), h2 0.41
2 (k)), h1 3 2 (k)、h13。 0.37
(j), . . . , d (j))}j=r,k=r h1 r combinations {(h2 and the second hyperparameters are fixed. (j), D。 (j))j=r,k=rh1rの組み合わせ{(h2)と第2ハイパーパラメータを固定する。 0.59
2(k))}k=r 1(k), h2 2(k))}k=r 1(k), h2 0.45
j=1,k=1 j=1,k=1 である。 0.40
k=1 of the first (5) 第一のk=1 (5) 0.57
6. The d − 1 TT core evaluation: r 6. d − 1 tt コア評価:r 0.65
• We 2 1 fix (k), hd−2 ・我々 2 1 固定する(k), hd−2 0.57
(k), . . . , hd−2 combinations {(hd−2 of the d − 2 TT core as well as r combinations {h1 j=1 of the third step. (k)、hd−2。 d − 2 TTコアの組合せ {(hd−2) と、第3ステップの r 結合 {h1 j=1 である。 0.55
We, then, estimate the accuracy of the nr2 elements with all n values of the {hd−1(id)}id=n id=1 : すると、nr2 要素の精度を {hd−1(id)}id=n id=1 のすべての n 値で推定する。 0.83
d−2(k))}k=r d−2(k))}k=r 0.39
d(j)}j=r k=1 d(j)}j=r k=1 である。 0.38
{A((hd−2 1 hd−1(id−1), h1 {A((hd−21 hd−1(id−1), h1 0.41
(k), . . . , hd−2 d−2 (k)、hd−2。 d−2 0.32
(k)), d (j))}k=r,id−1=n,j=r (k)、d (j))k=r,id−1=n,j=r 0.33
k=1,id−1=1,j=1 k=1,id−1=1,j=1 0.25
(6) • Again, in this matrix of size nr × r we search for a submatrix with the maximum determinant module: {A((hd−1 hd−1 d−1(k)), h1 (6) • この大きさ nr × r の行列において、最大行列加群を持つ部分行列を探索する: {A((hd−1 hd−1 d−1(k)), h1 0.60
(k), . . . , d (j))}k=r,j=r (k).... (j))k=r,j=r 0.34
(k), hd−1 (7) (k),hd−1 (7) 0.46
1 2 k=1,j=1 1 2 k=1,j=1 である。 0.42
r {(hd−1 perparameters are fixed. r {(hd−1 perparameters は固定される。 0.75
(k), hd−1 combinations (k), . . . , hd−1 (k),hd−1 組み合わせ (k) , . , hd−1 0.65
1 2 d−1(k)}k=r 1 2 d−1(k)}k=r 0.41
k=1 of hy- k=1 である。 hy (複数形 hys) 0.22
The end of one “sweep right” is reached. 1つの“sweep right”の終わりに到達します。 0.70
7. Similar to step 3, we have r combinations of hyperparameters, but they are not random anymore. 7. ステップ 3 と同様、r 個のハイパーパラメータの組み合わせがあるが、それらはもはやランダムではない。 0.67
We next perform a similar procedure in the reverse direction (from the last hyperparameter to the first). 次に、逆方向(最後のハイパーパラメータから最初のもの)で同様の手順を実行する。 0.78
The process is called the “sweep left”. このプロセスは“sweep left”と呼ばれる。 0.75
One first changes the index order: d−1(k)}k=r {(hd−1 インデックス順序を最初に変更する: d−1(k)}k=r {(hd−1) 0.75
(k), . . . , hd−1 (k) . . . . . hd−1 0.46
=⇒ relabel (k), hd−1 = relabel (k),hd−1 0.43
1 2 k=1 1 2 k=1 である。 0.39
{(hd−1 {(hd−1) である。 0.42
d−1(k), hd−1 d−1(k), hd−1 0.41
d−2(k), . . . , hd−1 d−2(k), . , hd−1. 0.48
2 (k)}j=r j=1 2 (k)j=r j=1 0.40
(8) 5. The next step of this iterative process is related to (8) 5. この反復プロセスの次のステップは、 0.53
the second TT core evaluation: 第2のTTコア評価: 0.79
And then, continues from the fourth step of the TTO algorithm. そして、TTOアルゴリズムの4番目のステップから続く。 0.68
英語(論文から抽出)日本語訳スコア
8. A combination of the “sweep right” and the “sweep left” is a full sweep. 8. “sweep right” と “sweep left” の組み合わせは完全に一掃される。 0.72
We do nswp full sweeps in this algorithm. このアルゴリズムで nswp をフルスイープします。 0.69
9. During all the iterations, we record it if we estimate 9.全てのイテレーションの間、見積もれば記録します。 0.65
a new maximum score. C. Benchmarking HPO Methods 新しい最高点だ C. HPO メソッドのベンチマーク 0.52
FIG. 2: Tensor Train (TT) and Grid Search (GS): Expected Runtime in maximum objective function evaluations vs. growth of problem dimension d. 第2図:テンソルトレイン(tt)とグリッドサーチ(gs):最大目的関数評価における期待実行時間と問題次元dの成長。 0.77
In order to ascertain the solution quality in our proposed method for hyperparameter optimization, we tested over three black-box objective functions. 提案手法の高パラメータ最適化における解の質を確認するため、3つのブラックボックス目的関数を試験した。 0.79
These functions included the Schwefel, Fletcher-Powell, and Vincent functions from the optproblems Python library [57]. これらの関数には、optiproblems pythonライブラリ[57]のschwefel、fletcher-powell、vincent関数が含まれる。 0.65
We ran 100 randomly initialized trails and recorded average fitness and maximum number of function evaluations in response to the change in the problem size d for each objective function. 対象関数毎に問題サイズdの変化に応じて,100個のランダム初期化トレイルを実行し,平均適合度および最大機能評価値を記録した。 0.80
We compared grid search (GS) and tensor train (TT) - both tabular methods for hyperparameter optimization. 格子探索 (GS) とテンソルトレイン (TT) を比較した。 0.29
For tensor train and grid search, we partitioned the hyperparameter ranges with 4 discrete points per hyperparameter. テンソルトレインとグリッドサーチでは,ハイパーパラメータ毎に4つの離散点を持つ超パラメータ範囲を分割した。 0.60
For tensor train we set the rank parameter r = 2. テンソルトレインではランクパラメータ r = 2 を設定します。 0.51
D. Car Classification with Hybrid Quantum ハイブリッド量子を用いたd.カー分類 0.61
Neural Networks ニューラルネットワーク 0.71
Computer vision and classification systems are ubiquitous within the mobility and automotive industries. コンピュータビジョンと分類システムは、モビリティ産業や自動車産業においてユビキタスである。 0.67
In this article, we investigate the car classification problem using the Car data set [58] provided by Stanford CS Department. 本稿では,Stanford CS Department が提供するカーデータセット [58] を用いた自動車分類問題について検討する。 0.85
Examples of cars in the data set are shown in Fig 3. データセット内の車の例を図3に示します。 0.82
The Stanford Cars data set contains 16,185 images of 196 classes of cars. スタンフォード・カーズのデータセットには196種類の車の16,185枚の画像が含まれている。 0.53
The data is split into 8,144 training images and 8,041 testing images. データは8,144のトレーニングイメージと8,041のテストイメージに分けられる。 0.69
The classes are 5 Schwefel クラスは 5 シュヴェフェル 0.43
HPO Method Average Fitness d ER TT 3 32 3 GS 64 6 80 TT 6 GS 4092 10 144 TT GS 10 10000 HPO法の平均適合度 d ER TT 3 32 3 GS 64 6 80 TT 6 GS 4092 10 144 TT 10 10000 0.77
-541.76 -541.76 -1083.53 -1083.53 -1805.89 -1805.89 -541.76 -541.76 -1083.53 -1083.53 -1805.89 -1805.89 0.16
Fletcher-Powell フレッチャーパウエル 0.43
HPO Method Average Fitness d ER 3 TT 32 3 64 GS TT 6 80 6 4092 GS 10 144 TT GS 10 10000 HPO法の平均適合度 d ER 3 TT 32 3 64 GS TT 6 80 6 4092 GS 10 144 TT 10 10000 0.78
5136.64 4113.78 23954.5 14295.2 78101.4 36890.11 5136.64 4113.78 23954.5 14295.2 78101.4 36890.11 0.22
Vincent HPO Method Average Fitness d ER 3 TT 32 3 64 GS 6 TT 80 GS 6 4092 10 144 TT GS 10 10000 ヴィンセント HPO法の平均適合度 d ER 3 TT 32 3 64 GS 6 TT 80 GS 6 4092 10 144 TT 10 10000 0.70
-0.232 -0.243 -0.242 -0.243 -0.241 -0.243 -0.232 -0.243 -0.242 -0.243 -0.241 -0.243 0.16
TABLE I: Table of results comparing HPO methods for Schwefel, Fletcher-Powell, and Vincent objective functions. TABLE I: Schwefel、Fletcher-Powell、Vincentの目的関数に対するHPO法の比較結果表。 0.72
Average fitness values and Expected Runtimes (ER) in maximum function evaluations were calculated over 100 runs for varying sizes of problem dimension d (lower is better). 最大関数評価における平均適合値と期待実行時 (ER) は、問題次元dの異なるサイズで100回以上計算された(より低い方がよい)。 0.75
Methods obtaining the best average fitness are highlighted in bold, with ties broken by lower ER. 最高の平均フィットネスを得る方法は太字で強調され、ネクタイはerによって破られる。 0.45
typically at the combination of Make, Model, Year, e g , Volkswagen Golf Hatchback 1991 or Volkswagen Beetle Hatchback 2012. 典型的には、Make, Model, Year, e g , Volkswagen Golf Hatchback 1991 または Volkswagen Beetle Hatchback 2012 である。 0.90
Since the images in this data set have different sizes, we resized all images to 400 by 400 pixels. このデータセットのイメージはサイズが異なるので、すべてのイメージを400から400ピクセルにリサイズしました。 0.76
In addition, we apply random rotations by maximum 15◦, random horizontal flips, and normalization to the training data. さらに, トレーニングデータに対して, 最大15進数でランダムな回転, ランダムな水平反転, 正規化を適用した。 0.74
For testing data, only normalization has been applied. テストデータには正規化のみが適用される。 0.79
We use transfer learning to solve the car classification problem. 我々は車種分類問題を解くために転校学習を利用する。 0.72
Transfer learning is a powerful method for training neural networks in which experience in solving one problem helps in solving another problem [59]. 転送学習は、ある問題を解決する経験が別の問題を解決するのに役立つニューラルネットワークのトレーニングの強力な方法です [59]。 0.81
In our case, the ResNet (Residual Neural Network) [60] is pretrained on the ImageNet data set [61], and is used as a base model. この場合、resnet(residual neural network)[60]はimagenetデータセット[61]上で事前トレーニングされ、ベースモデルとして使用される。 0.72
One can fix the weights of the base model, but if the base model is not flexible enough, one can “unfreeze” certain layers and make it trainable. ベースモデルの重みを修正できるが、ベースモデルの柔軟性が十分でない場合には、特定のレイヤを“凍結”して、トレーニング可能にすることができる。 0.75
Training deep networks is challenging due to the vanishing gradient problem, but ResNet solves this problem with socalled residual blocks: inputs are passed to the next layer in the residual block. ディープ・ネットワークのトレーニングは勾配問題により難しいが、ResNetはこの問題をいわゆる残差ブロックで解決し、入力は残差ブロックの次の層に渡される。 0.68
In this way, deeper layers can see information about the input data. このようにして、より深い層は入力データに関する情報を見ることができる。 0.68
ResNet has established itself as a robust network architecture for solving image classification problems. ResNetは、画像分類問題を解決するための堅牢なネットワークアーキテクチャとしての地位を確立している。 0.62
We dowloaded ResNet34 via PyTorch [62], where the number after the model name, 34, indicates the number of layers in the network. resnet34 を pytorch [62] 経由でロードし、ここでモデル名 34 の後にネットワーク内のレイヤ数を示す。
訳抜け防止モード: 私たちはPyTorch [62 ]を介してResNet34をロードしました。 モデル名34の番号は ネットワーク内の層数を表します
0.74
As shown in the Fig 3(a), in the classical network af- 図 3(a) に示すように、古典的ネットワーク af- 0.75
英語(論文から抽出)日本語訳スコア
6 FIG. 3: Classical (a) and Hybrid 6 第3図:古典 (a)ハイブリッド 0.58
(b) quantum neural network architectures. (b)量子ニューラルネットワークアーキテクチャ。 0.73
ter ResNet34 we add three fully-connected layers. ter resnet34 完全に接続された3つのレイヤを追加します。 0.40
Each output neuron corresponds to a particular class of the classification problem, e g , Volkswagen Golf Hatchback 1991 or Volkswagen Beetle Hatchback 2012. 各出力ニューロンは、分類問題の特定のクラス、例えば、Volkswagen Golf Hatchback 1991またはVolkswagen Beetle Hatchback 2012に対応する。 0.77
The output neuron with the largest value determines the output class. 最大値の出力ニューロンは出力クラスを決定する。 0.71
Since the output from the ResNet34 is composed of 512 features, the first fully-connected layer consists of 512 input neurons and a bias neuron and n output features. ResNet34からの出力は512個の特徴からなるので、最初の完全連結層は512個の入力ニューロンとバイアスニューロンとn個の出力特徴からなる。 0.75
The second fully-connected layer connects n input neurons and a bias neuron with nq output features. 第2の完全連結層は、n入力ニューロンとnq出力特徴を有するバイアスニューロンを接続する。 0.71
The value of n and q can vary, thus changing the number of weights in the classical network. n と q の値は変化するので、古典的ネットワークの重みの数を変えることができる。 0.81
Since the network classifies k classes in the general case, the third fully-connected layer takes nq neurons and a bias neuron as input and feeds k neurons as output. ネットワークは一般にkクラスを分類するため、第3の完全連結層はnqニューロンとバイアスニューロンを入力とし、kニューロンを出力として供給する。 0.77
In the hybrid analog as shown in Fig 3(b) we replace the second fully-connected layer with a quantum one. 図3(b)に示すようなハイブリッドアナログでは、第2の完全連結層を量子的に置き換える。 0.82
It is worth noting that the number of qubits used for the efficient operation of the model is initially unknown. モデルの効率的な操作に使用される量子ビットの数は、当初不明である点に注意が必要だ。 0.69
In the quantum layer, the Hadamard transform is applied to each qubit, then the input data is encoded into the angles of rotation along the y-axis. 量子層では、アダマール変換が各量子ビットに適用され、入力データはy軸に沿った回転角に符号化される。 0.72
The variational layer consists of the application of the CNOT gate and rotation along x, y, z-axes. 変分層はCNOTゲートの応用と x, y, z-軸に沿った回転からなる。 0.76
The number of variational layers can vary. 変動層の数は様々である。 0.77
Accordingly, the number of weights in the hybrid network can also change. したがって、ハイブリッドネットワークにおける重み付け数も変更できる。 0.64
The measurement is made in the X-basis. 測定はx-basisで行われます。 0.79
For each qubit, the local expectation value of the X operator is measured. 各キュービットに対して、x演算子の局所期待値を測定する。 0.69
This produces a classical output vector, suitable for additional post-processing. これは、追加の後処理に適した古典的な出力ベクトルを生成する。 0.57
Since the optimal number of variational layers (q, depth of quantum circuit) and the optimal number of qubits n are not known in advance, we choose these values as hyperparameters. 変分層の最適数 (q, 量子回路深さ) と最適な量子ビット数 n が予め分かっていないため、これらの値をハイパーパラメータとして選択する。 0.78
We use the cross-entropy as a loss function 我々は損失関数としてクロスエントロピーを用いる 0.74
l = − k(cid:88) l = − k(cid:88) 0.47
yc log pc (9) ycログpc (9) 0.56
c=1 where pc is the prediction probability, yc is 0 or 1, determining respectively if the image belongs to the prediction class, and k is the number of classes. c=1 である。 pc が予測確率である場合、yc は 0 または 1 であり、画像が予測クラスに属するかどうかをそれぞれ決定し、k はクラス数である。 0.58
We run our model for 10 epochs and apply weight decay and gradient clipping to prevent interference from large gradient or weight values. 我々は10エポックのモデルを実行し、大きな勾配や重み値からの干渉を防止するために重量減衰と勾配切断を適用した。 0.65
We use the Adam optimizer [63, 64] and reduce the learning rate after several epochs. 我々はアダムオプティマイザ [63, 64] を使い、何回かの経過後に学習率を下げる。 0.70
There is no one-size-fits-all rule of how to choose a learning rate. 学習率の選び方には、すべて一律のルールはない。 0.68
Moreover, in most cases, dynamic control of the learning rate of a neural network can significantly improve the efficiency of the backpropagation algorithm. さらに、多くの場合、ニューラルネットワークの学習率の動的制御は、バックプロパゲーションアルゴリズムの効率を大幅に向上させることができる。 0.81
For these reasons, we choose the initial learning rate, the period of learning rate decay, and the multiplicative factor of the learning rate decay as hyperparameters. これらの理由から,初等学習率,学習速度減衰期間,学習速度減衰の乗算係数をハイパーパラメータとして選択した。 0.71
In total, together with number of variational layers and number of qubits, we optimize five hyperparameters presented in Table II to improve the accuracy of solving the problem of car classification. 総じて,変動層数とキュービット数と合わせて,表2に示す5つのハイパーパラメータを最適化し,カー分類の問題を解決する精度を向上させる。 0.75
E. Simulation Results E. シミュレーション結果 0.89
We next perform a simulation of the hybrid quantum residual neural network described in the previous section. 次に,前節で述べたハイブリッド量子残留ニューラルネットワークのシミュレーションを行う。 0.67
The simulation is compared to its classical analog, the residual neural network, in a test car classification task. シミュレーションは、テストカー分類タスクにおいて、古典的なアナログである残留ニューラルネットワークと比較される。 0.80
Because of the limited number of qubits available and computational time constraints, we used a classification between two classes, Volkswagen Golf Hatchback 1991 and Volkswagen Beetle Hatchback 2012, to compare the classical and hybrid networks fairly. 利用可能な量子ビット数の制限と計算時間制限のため、古典的ネットワークとハイブリッドネットワークを公平に比較するために、Volkswagen Golf Hatchback 1991とVolkswagen Beetle Hatchback 2012の2つのクラスを分類した。 0.77
In total, Classical layer Fully-connected layer n kQuantum layer Fully-connected layer n nCar image, number of features per imageCar modelpredictionClass ical layer Fully-connected layer 512 nClassical layer Fully-connected layer Classical layer Fully-connected layer512 nResNet34 Car modelpredictionAudi S4 Sedan 2007Audi TT RS Coupe 2012VW Golf Hatchback 2012VW Golf Hatchback 1991VW Beetle Hatchback 2012…Classical layer Fully-connected layerResNet34 Car image, number of features per imagennqknq 総じて。 Classical layer Fully-connected layer n kQuantum layer Fully-connected layer n nCar image, number of features per imageCar modelpredictionClass ical layer Fully-connected layer 512 nClassical layer Fully-connected layer Classical layer Fully-connected layer512 nResNet34 Car modelpredictionAudi S4 Sedan 2007Audi TT RS Coupe 2012VW Golf Hatchback 2012VW Golf Hatchback 1991VW Beetle Hatchback 2012…Classical layer Fully-connected layerResNet34 Car image, number of features per imagennqknq
訳抜け防止モード: 総じて。 古典的層 完全連結層 n kQuantum 層 完全連結層 n nCar 画像 ImageCar modelprediction 古典的なレイヤ Fully - connected layer 512 nClassical layer Fully - connected layer Fully - connected layer 512 nResNet34 Car modelprediction Audi S4 Sedan 2007 Audi TT RS Coupe 2012VW Golf Hatchback 2012VW Golf Hatchback 1991VW Beetle Hatchback 2012 ... Classical layer Fully - connected layer ResNet34 Car image, imagennqknqあたりのフィーチャの数
0.61
英語(論文から抽出)日本語訳スコア
7 FIG. 4: (a) Dependence of accuracy on the number of iterations HPO. 7 第4図 (a)HPOの反復数に依存する精度。 0.52
TTO for the hybrid model found a set of hyperparameters that gives an accuracy of 0.852 after 6 iterations, 0.977 after 18 iterations, for the classical model found 0.977 after 6 iterations. ハイブリッドモデルのTTOでは、6回で0.852、18回で0.977、古典的なモデルでは0.977、6回で0.977の精度が得られた。 0.68
Grid search for the hybrid model found a set of hyperparameters that gives an accuracy of 0.989 after 75 iterations, for the classical model found 0.920 after 75 iterations. ハイブリッドモデルのグリッド探索では75回のイテレーションで0.989の精度を与える一連のハイパーパラメータが発見された。 0.63
(b) Dependence of accuracy on the number of epochs with the found optimal set of hyperparameters. (b)超パラメータの最適集合によるエポック数に対する精度の依存。 0.67
Hyperparameter Label Range Hybrid ハイパーパラメータ ラベル範囲ハイブリッド 0.68
qubits, of qubits, ですから 0.48
number number of neurons depth circuit number of neurons initial learning rate ニューロンの深さ回路数 ニューロンの初期学習率 0.62
of quantum step of learning rate multiplicative factor of learning rate decay ですから 量子 学習速度乗算因子の学習速度減衰のステップ 0.68
n q nq α0 αδ αr n q nq α0 αδαr 0.41
4 − 16 13 1 − 5 4 4 − 80 × 1−10× 10−4 1 − 8 0.1 − 0.2 4 − 16 13 1 − 5 4 4 − 80 × 1−10× 10−4 1 − 8 0.1 − 0.2 0.41
8 0.1 HPO values 8 0.1 HPO値 0.59
Classical HPO values 5 × 古典的hpo値 5 × 0.83
5×10−4 5 × 10−4 5×10−4 5 × 10−4 0.27
80 5 0.2 TABLE II: The table shows which hyperparameters are being optimized, their labels, limits of change, and the best values found during HPO. 80 5 0.2 TABLE II: テーブルは、どのハイパーパラメータが最適化されているか、ラベル、変更の限界、HPOで見つかった最高の値を示しています。 0.49
we used 88 testing images and 89 training images. 88の試験画像と89の訓練画像を使いました 0.78
Both the hybrid quantum HQNN model, and the classical NN model, were used together with the GS and TTO methods for hyperparameter optimization. ハイブリッド量子HQNNモデルと古典的NNモデルの両方が、超パラメータ最適化のためのGSおよびTTOメソッドと共に使用された。 0.84
All machine learning simulations were carried out in the QMware cloud, on which the classical part was implemented with the PyTorch framework, and the quantum part was implemented with the <basiq> SDK [65]. 機械学習のシミュレーションはすべてQMwareクラウド上で行われ、古典的な部分はPyTorchフレームワークで実装され、量子部分は<basiq> SDK [65]で実装された。 0.69
The results of the simulations are shown in Fig 4. シミュレーションの結果は図4に示されています。 0.89
Fig. 4(a) shows the dependence of accuracy on the number of HPO iterations on the test data, where one iteration of HPO is one run of the model. 図4(a)は、HPOの1つの反復がモデルの1つの実行であるテストデータに対するHPOイテレーション数への精度の依存を示す。 0.79
Green color shows the dependence of accuracy on the number of iterations for the HQNN, blue color shows for the classical NN. 緑色の色はHQNNのイテレーション数に精度が依存していることを示し、青い色は古典的なNNを示す。 0.73
As one can see from Fig 4(a), TTO works more efficiently than GS and in fewer iterations finds hyperparameters that give an accuracy above 0.9. 図 4(a) からわかるように、TTO は GS よりも効率的に機能し、より少ないイテレーションで 0.9 以上の精度を与えるハイパーパラメータが見つかる。 0.79
HQNN with TTO (marked with green crosses) finds a set of hyperparameters that yields 97.7% accuracy over 18 iterations. HQNNとTTO(グリーンクロスで示される)は18回のイテレーションで97.7%の精度を持つハイパーパラメータのセットを見つける。 0.71
As for the GS (marked solid green line), it took 44 iter- gs (marked solid green line) については, 44 iter を要した。 0.79
ations to pass the threshold of 98% accuracy. イオンは98%の精度でしきい値を通過する。 0.57
TTO finds in 6 iterations a set of hyperparameters for the classical NN, which gives an accuracy of 97.7%, which is the same as the accuracy given by the set of hyperparameters for the HQNN that found in 18 iterations. TTOは6イテレーションで古典的NNのハイパーパラメータのセットを見つけ、精度は97.7%であり、18イテレーションで発見されたHQNNのハイパーパラメータのセットと同じ精度である。 0.68
As for the GS, it is clear that the optimization for the HQNN works more efficiently than for the classical one. GSに関しては、HQNNの最適化が従来のものよりも効率的であることは明らかである。 0.81
And the optimization of the HQNN requires fewer iterations to achieve higher accuracy compared to the optimization of the classical NN. また、HQNNの最適化は、従来のNNの最適化よりも高い精度を達成するために、より少ないイテレーションを必要とする。
訳抜け防止モード: HQNNの最適化にはイテレーションが少なくなる 古典的NNの最適化よりも高い精度を実現する。
0.71
A possible reason is that a quantum layer with a relatively large number of qubits and a greater depth works better than its classical counterpart. 考えられる理由は、比較的多くの量子ビットと大きな深さを持つ量子層が古典的よりもうまく機能するからである。 0.82
FIG. 5: Examples of test car images that were correctly classified by the hybrid quantum residual neural network. FIG.5:ハイブリッド量子残留ニューラルネットワークによって正しく分類されたテストカー画像の例。 0.79
The best values found during HPO are displayed in Table II. HPOの最良値はTable IIに表示される。 0.62
The quantum circuit corresponding to the optimal set of hyperparameters has 52 variational parameters, leading to a total of 6749 weights in the HQNN. ハイパーパラメータの最適セットに対応する量子回路は52の変動パラメータを持ち、hqnnでは合計6749の重みを持つ。 0.74
In the classical NN there are 9730 weights. 古典的なNNには9730の重みがある。 0.58
Therefore, there are significantly fewer weights in a HQNN com- そのため、HQNNcomの重量は大幅に減っている。 0.71
Volkswagen Golf Hatchback 1991Volkswagen Beetle Hatchback 2012 Volkswagen Golf Hatchback 1991 Volkswagen Beetle Hatchback 2012 0.47
英語(論文から抽出)日本語訳スコア
pared to a classical NN. 古典的なNNに 当てはまりました 0.52
Nevertheless, as can be seen from the Fig 4(b), the HQNN, with the hyperparameters found using the GS, reaches the highest overall accuracy (98.9%). しかし、図4(b)に見られるように、GSを用いた超パラメーターを持つHQNNは、全体的な精度が最も高い(98.9%)。 0.67
The Fig 5 shows examples of car images that were classified correctly by the HQNN model. 図5はHQNNモデルによって正しく分類された車のイメージの例を示している。 0.78
The HQNN with an optimized set of hyperparameters achieved an accuracy of 0.989. 最適化されたハイパーパラメータセットのHQNNは0.989の精度を達成した。 0.69
DISCUSSION We introduced two new ML developments to image recognition. 討論 画像認識に新たなML開発を2つ導入した。 0.44
First, we presented a quantum-inspired method of tensor train decomposition for choosing ML model hyperparameters. まず,量子インスパイアされたテンソルトレイン分解法によるmlモデルハイパーパラメータの選択法を提案する。 0.56
This decomposition enabled us to optimize hyperparameters similar to other tabular search methods, e g , grid search, but required only O(dnr2) hyperparameter choices instead of O(nd) in the grid search method. この分解により、グリッドサーチのような他の表付き探索手法と同様のハイパーパラメータを最適化できるが、グリッドサーチではO(nd)の代わりにO(dnr2)ハイパーパラメータを選択するだけでよい。 0.74
We verified this method over various black box functions and found that the tensor train method achieved comparable results in average fitness, with a reduced expected run time for most of the test functions compared to grid search. 様々なブラックボックス関数上でこの手法を検証した結果,テンソルトレイン法が平均適合度で同等の結果を得た。
訳抜け防止モード: 様々なブラックボックス関数上でこの手法を検証した結果,テンソルトレイン法が平均運動量で同等の結果を得た。 グリッド検索と比較して、ほとんどのテスト関数の実行時間が短縮される。
0.71
This indicates that this method may be useful for high dimensional hyperparameter searches for expensive black-box functions. この手法は高価なブラックボックス関数の高次元ハイパーパラメータ探索に有用である。 0.70
Future work could investigate using this method in combination with local search heuristic, where the tensor train optimizer performs a sweep over a larger search space within a budget, and seeds another optimization routine for a local search around this region. 将来の研究では、この方法と局所探索ヒューリスティックを組み合わせることで、テンソルトレインオプティマイザが予算内で大きな探索空間をスイープし、この領域周辺の局所探索のための別の最適化ルーチンをシードする手法を研究できるだろう。 0.75
This method could also be applied to the B/n problem for successive halv- この方法は、連続したhalvのb/n問題にも適用できる。 0.63
8 ing algorithm by decomposing the search space to find the optimal ratio of budget B over configurations n. 8 探索空間を分解して構成 n 上の予算 b の最適比率を求めるingアルゴリズム。 0.60
Future work could investigate these applications in more detail. 今後の研究は、これらの応用をもっと詳しく調べることができるだろう。 0.45
Second, we presented a hybrid quantum neural network model for supervised learning. 次に,教師付き学習のためのハイブリッド量子ニューラルネットワークモデルを提案する。 0.70
The hybrid model consisted of the combination of ResNet34 and a quantum circuit part, whose size and depth became the hyperparameters. ハイブリッドモデルはResNet34と量子回路部品の組み合わせで構成され、そのサイズと深さはハイパーパラメータとなった。 0.78
The size and flexibility of the hybrid ML model allowed us to apply it to car image classification. ハイブリッドMLモデルのサイズと柔軟性により,カーイメージ分類に適用することが可能となった。 0.77
The hybrid ML model with GS showed an accuracy of 0.989 after 75 iterations in our binary classification tests with images of Volkswagen Golf Hatchback 1991 and Volkswagen Beetle Hatchback 2012. GSを用いたハイブリッドMLモデルでは,Volkswagen Golf Hatchback 1991とVolkswagen Beetle Hatchback 2012の2次分類試験を75回行った結果,0.989の精度を示した。 0.85
This accuracy was better than of a comparable classical ML model with GS showed an accuracy of 0.920 after 75 iterations. この精度は、GSが75回繰り返した後に0.920の精度を示した類似のMLモデルよりも優れていた。 0.70
In the same test, the hybrid ML model with TTO showed an accuracy of 0.977 after 18 iterations, whereas the comparable classical ML model with TTO, which showed the same accuracy of 0.977 after 6 iterations. 同じテストで、ttoとttoのハイブリッドmlモデルは18回のイテレーションで0.977の精度を示し、ttoと同等の古典mlモデルは6回のイテレーションで0.977の精度を示した。 0.76
Our developments provide new ways of using quantum and quantum-inspired methods in practical industry problems. 我々の開発は、実用的な産業問題に量子および量子に着想を得た新しい方法を提供する。 0.56
In future research, exploring the sample complexity of the hybrid quantum model is of importance, in addition to generalization bounds of the quantum models similar to research in Ref. 将来の研究において、ハイブリッド量子モデルのサンプル複雑性の探索は、Refの研究に類似した量子モデルの一般化境界に加えて重要である。 0.88
[66]. Future work could also entail investigating state-of-the-art improvements in hyperparameter optimization for classical and quantum-hybrid neural networks and other machine learning models by leveraging quantum-inspired or quantum-enhanced methods. [66]. 量子インスパイアや量子エンハンスドメソッドを活用することによって、古典的および量子ハイブリッドニューラルネットワークやその他の機械学習モデルにおけるハイパーパラメータ最適化の最先端の改善も研究されるだろう。 0.48
[1] Mark W Johnson, Mohammad HS Amin, Suzanne Gildert, Trevor Lanting, Firas Hamze, Neil Dickson, Richard Harris, Andrew J Berkley, Jan Johansson, Paul Bunyk, et al Quantum annealing with manufactured spins. [1] Mark W Johnson, Mohammad HS Amin, Suzanne Gildert, Trevor Lanting, Firas Hamze, Neil Dickson, Richard Harris, Andrew J Berkley, Jan Johansson, Paul Bunyk, et al Quantum annealing with produced spins。
訳抜け防止モード: マーク・w・ジョンソン モハンマド・hs・アミン スザンヌ・ギルダート トレバー・ランティング、フィラス・ハムズ、ニール・ディクソン、リチャード・ハリス andrew j berkley, jan johansson, paul bunyk, et al quantum annealing with manufacturing spins。
0.56
Nature, 473(7346):194–198, 2011. 自然誌 473(7346):194–198, 2011 0.79
[2] Florian Neukart, Gabriele Compostella, Christian Seidel, David Von Dollen, Sheir Yarkoni, and Bob Parney. Florian Neukart, Gabriele Compostella, Christian Seidel, David Von Dollen, Sheir Yarkoni, Bob Parney
訳抜け防止モード: フロリアン・ノイカルト、ガブリエル・コンプテッラ、クリスチャン・セイデル David Von Dollen、Sheir Yarkoni、Bob Parney。
0.47
Traffic flow optimization using a quantum annealer. 量子アニールを用いた交通流の最適化 0.80
Frontiers in Information and Communication Technologies, 4:29, 2017. 情報通信技術におけるフロンティア、2017年4月4日29日。 0.61
[3] Arpit Mehta, Murad Muradi, and Selam Woldetsadick. [3]Arpit Mehta、Murad Muradi、Selam Woldetsadick。 0.31
Quantum annealing based optimization of robotic movement in manufacturing. 製造におけるロボット運動の量子アニールに基づく最適化 0.78
In International Workshop on Quantum Technology and Optimization Problems, pages 136–144. 量子技術と最適化問題に関する国際ワークショップ」136-144頁。 0.79
Springer, 2019. スプリンガー、2019年。 0.53
[4] Masayuki Ohzeki, Akira Miki, Masamichi J Miyama, and Masayoshi Terabe. [4]大関正之、三木明、J三山正通、寺部正義 0.39
Control of automated guided vehicles without collision by quantum annealer and digital devices. 量子アニールとデジタルデバイスによる衝突のない自動誘導車両の制御 0.78
Frontiers in Computer Science, 1:9, 2019. コンピュータサイエンスのフロンティア、2019年1:9。 0.68
[5] Sheir Yarkoni, Alex Alekseyenko, Michael Streif, David Von Dollen, Florian Neukart, and Thomas B¨ack. 5]Sheir Yarkoni氏、Alex Alekseyenko氏、Michael Streif氏、David Von Dollen氏、Florian Neukart氏、Thomas B sack氏。 0.40
Multicar paint shop optimization with quantum annealing. 量子アニーリングによるマルチカーペイントショップ最適化 0.68
In 2021 IEEE International Conference on Quantum Computing and Engineering (QCE), pages 35–41. 2021年、IEEE International Conference on Quantum Computing and Engineering (QCE)、35-41頁。 0.41
IEEE, 2021. IEEE、2021年。 0.81
[6] Michael Streif, Florian Neukart, and Martin Leib. Michael Streif氏、Florian Neukart氏、Martin Leib氏。 0.31
Solv- ing quantum chemistry problems with a d-wave quantum annealer. ソルバ- D波量子アニールを用いた量子化学問題の解法 0.67
In International Workshop on Quantum Technology and Optimization Problems, pages 111–122. 量子技術と最適化問題に関する国際ワークショップ、111-1212頁。 0.74
Springer, 2019. スプリンガー、2019年。 0.53
[7] Rongxin Xia, Teng Bian, and Sabre Kais. [7]Rongxin Xia、Teng Bian、Sabre Kais。 0.30
Electronic structure calculations and the ising hamiltonian. 電子構造計算と等化ハミルトニアン 0.52
The Journal of Physical Chemistry B, 122(13):3384–3395, 2017. journal of physical chemistry b, 122(13)3384-3395, 2017 年。 0.84
[8] Tobias Stollenwerk, Bryan O’Gorman, Davide Venturelli, Salvatore Mandra, Olga Rodionova, Hokkwan Ng, Banavar Sridhar, Eleanor Gilbert Rieffel, and Rupak Biswas. Tobias Stollenwerk氏、Bryan O’Gorman氏、Davide Venturelli氏、Salvatore Mandra氏、Olga Rodionova氏、Hokkwan Ng氏、Banavar Sridhar氏、Eleanor Gilbert Rieffel氏、Rupak Biswas氏。 0.36
Quantum annealing applied to deconflicting optimal trajectories for air traffic management. 航空交通管理のための最適軌道分割に量子アニールを適用した。 0.62
IEEE Transactions on Intelligent Transportation Systems, 21(1):285–297, 2019. IEEE Transactions on Intelligent Transportation Systems, 21(1):285–297, 2019 0.46
[9] Sebastian Feld, Christoph Roch, Thomas Gabor, Christian Seidel, Florian Neukart, Isabella Galter, Wolfgang Mauerer, and Claudia Linnhoff-Popien. 9]Sebastian Feld, Christoph Roch, Thomas Gabor, Christian Seidel, Florian Neukart, Isabella Galter, Wolfgang Mauerer, Claudia Linnhoff-Popien。
訳抜け防止モード: [9]セバスティアン・フェルド、クリストフ・ローチ、トーマス・ガボル Christian Seidel, Florian Neukart, Isabella Galter, Wolfgang Mauer Claudia Linnhoff-Popien氏。
0.76
A hybrid solution method for the capacitated vehicle routing problem using a quantum annealer. 量子アニールを用いた静電容量化車両経路問題のハイブリッド解法 0.61
Frontiers in Information and Communication Technologies, 6:13, 2019. 情報通信技術におけるフロンティア、2019年6月13日。 0.67
[10] Erica Grant, Travis S Humble, and Benjamin Stump. 10]エリカ・グラント、トラヴィス・s・ハンブル、ベンジャミン・スタンプ 0.40
Benchmarking quantum annealing controls with portfolio optimization. ポートフォリオ最適化によるベンチマーク量子アニーリング制御。 0.73
Physical Review Applied, 15(1):014012, 2021. 書評 15(1):014012, 2021。 0.49
英語(論文から抽出)日本語訳スコア
[11] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor. 11] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando GSL Brandao, David A Buell, et al Quantum supremacy using a programmable superconducting processor。
訳抜け防止モード: [11 ]フランク・アルテ,クナル・アリア,ライアン・バブッシュ, Dave Bacon, Joseph C Bardin, Rami Barends, Rupak Biswas, Sergio Boixo Fernando GSL Brandao, David A Buell, et al Quantum supremacy プログラム可能な超伝導プロセッサを使います
0.78
Nature, 574(7779):505–510, 2019. 自然誌 574(7779):505-510, 2019。 0.37
[12] Michael Streif, Sheir Yarkoni, Andrea Skolik, Florian Neukart, and Martin Leib. Michael Streif氏、Sheir Yarkoni氏、Andrea Skolik氏、Florian Neukart氏、Martin Leib氏。 0.35
Beating classical heuristics for the binary paint shop problem with the quantum approximate optimization algorithm. 量子近似最適化アルゴリズムを用いた2値ペイントショップ問題に対する古典ヒューリスティックスを打ち負かす。 0.82
Physical Review A, 104(1):012403, 2021. 物理書評 A, 104(1):012403, 2021。 0.76
[13] Michael Streif and Martin Leib. 13] マイケル・ストレイフと マーティン・リーブ 0.47
Training the quantum approximate optimization algorithm without access to a quantum processing unit. 量子処理ユニットにアクセスせずに量子近似最適化アルゴリズムを訓練する。 0.86
Quantum Science and Technology, 5(3):034008, 2020. 量子科学・技術 5(3):034008, 2020 0.65
[14] David Amaro, Matthias Rosenkranz, Nathan Fitzpatrick, Koji Hirano, and Mattia Fiorentini. 14]ダヴィッド・アマロ、マティアス・ローゼンクランツ、ネイサン・フィッツパトリック、平野コジ、マティア・フィオレンティーニ 0.39
A case study of variational quantum algorithms for a job shop scheduling problem. ジョブショップスケジューリング問題に対する変分量子アルゴリズムのケーススタディ 0.63
arXiv preprint arXiv:2109.03745, 2021. arXiv preprint arXiv:2109.03745, 2021 0.40
[15] Constantin Dalyac, Lo¨ıc Henriet, Emmanuel Jeandel, Wolfgang Lechner, Simon Perdrix, Marc Porcheron, and Margarita Veshchezerova. 15]コンスタンティン・ダリャック、ロ・シック・ヘンリエ、エマニュエル・ジャンデル、ヴォルフガング・レヒナー、サイモン・パードリックス、マルク・ポルチェロン、マルガリータ・ヴェシュチェゼロヴァ
訳抜け防止モード: コンスタンティン・ダリャック、ロ・シュク・ヘンリエ、エマニュエル・ジャンデル。 Wolfgang Lechner、Simon Perdrix、Marc Porcheron、Margarita Veshchezerova。
0.54
Qualifying quantum approaches for hard industrial optimization problems. ハード産業最適化問題に対する量子アプローチの定式化。 0.67
a case study in the field of smart-charging of electric vehicles. 電気自動車のスマートチャージ分野におけるケーススタディ。 0.72
EPJ Quantum Technology, 8(1):12, 2021. EPJ量子技術 8(1):12, 2021 0.70
[16] Andre Luckow, Johannes Klepsch, and Josef Pichlmeier. Andre Luckow氏、Johannes Klepsch氏、Josef Pichlmeier氏。 0.29
Quantum computing: Towards industry reference problems. 量子コンピューティング(Quantum Computing): 業界への参照問題。 0.60
arXiv preprint arXiv:2103.07433, 2021. arXiv preprint arXiv:2103.07433, 2021 0.40
[17] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Sergio Boixo, Michael Broughton, Bob B Buckley, David A Buell, et al Hartreefock on a superconducting qubit quantum computer. 16] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C Bardin, Rami Barends, Sergio Boixo, Michael Broughton, Bob B Buckley, David A Buell, et al Hartreefock on a superconducting qubit quantum computer。
訳抜け防止モード: [17 ]フランク・アルテ,クナル・アリア,ライアン・バブッシュ, Dave Bacon, Joseph C Bardin, Rami Barends, Sergio Boixo, Michael Broughton Bob B Buckley, David A Buell, et al Hartreefock on a superconducting qubit quantum computer .
0.75
Science, 369(6507):1084–1089, 2020. 369(6507):1084-1089, 2020。 0.62
[18] Fionn D Malone, Robert M Parrish, Alicia R Welden, Thomas Fox, Matthias Degroote, Elica Kyoseva, Nikolaj Moll, Raffaele Santagati, and Michael Streif. Fionn D Malone氏、Robert M Parrish氏、Alicia R Welden氏、Thomas Fox氏、Matthias Degroote氏、Elica Kyoseva氏、Nikolaj Moll氏、Raffaele Santagati氏、Michael Streif氏。
訳抜け防止モード: 18 ] Fionn D Malone, Robert M Parrish, Alicia R Welden, Thomas Fox, Matthias Degroote, Elica Kyoseva, Nikolaj Moll ラファエル・サンタガティとマイケル・ストレイフ。
0.79
Towards the simulation of large scale protein-ligand interactions on nisq-era quantum computers. nisq-era量子コンピュータにおける大規模タンパク質-リガンド相互作用のシミュレーションに向けて 0.65
arXiv preprint arXiv:2110.01589, 2021. arXiv preprint arXiv:2110.01589, 2021 0.40
[19] Manuel S Rudolph, Ntwali Bashige Toussaint, Amara Katabarwa, Sonika Johri, Borja Peropadre, and Alejandro Perdomo-Ortiz. Manuel S Rudolph, Ntwali Bashige Toussaint, Amara Katabarwa, Sonika Johri, Borja Peropadre, Alejandro Perdomo-Ortiz
訳抜け防止モード: [19 ]Manuel S Rudolph, Ntwali Bashige Toussaint, Amara Katabarwa, Sonika Johri, Borja Peropadre, and Alejandro Perdomo - Ortiz
0.39
Generation of high-resolution handwritten digits with an ion-trap quantum computer. イオントラップ量子コンピュータを用いた高分解能手書き文字生成 0.74
arXiv preprint arXiv:2012.03924, 2020. arxiv プレプリント arxiv:2012.03924, 2020 0.43
[20] Andrea Skolik, Jarrod R McClean, Masoud Mohseni, Patrick van der Smagt, and Martin Leib. Andrea Skolik氏、Jarrod R McClean氏、Masoud Mohseni氏、Patrick van der Smagt氏、Martin Leib氏。 0.36
Layerwise learning for quantum neural networks. 量子ニューラルネットワークのための層学習 0.84
Quantum Machine Intelligence, 3(1):1–11, 2021. 量子マシンインテリジェンス 3(1):1–11, 2021。 0.85
[21] Andrea Skolik, Sofiene Jerbi, and Vedran Dunjko. Andrea Skolik氏、Sofiene Jerbi氏、Vedran Dunjko氏。 0.31
Quantum agents in the gym: a variational quantum algorithm for deep q-learning. ジムにおける量子エージェント:深層q学習のための変分量子アルゴリズム。 0.83
arXiv preprint arXiv:2103.15084, 2021. arXiv preprint arXiv:2103.15084, 2021 0.40
[22] Evan Peters, Joao Caldeira, Alan Ho, Stefan Leichenauer, Masoud Mohseni, Hartmut Neven, Panagiotis Spentzouris, Doug Strain, and Gabriel N Perdue. Evan Peters, Joao Caldeira, Alan Ho, Stefan Leichenauer, Masoud Mohseni, Hartmut Neven, Panagiotis Spentzouris, Doug Strain, Gabriel N Perdue.
訳抜け防止モード: [22 ]Evan Peters, Joao Caldeira, Alan Ho, Stefan Leichenauer, Masoud Mohseni, Hartmut Neven, Panagiotis Spentzouris ダグ・ストレイン(Doug Strain)とガブリエル・N・パーデュー(Gabriel N Perdue)。
0.79
Machine learning of high dimensional data on a noisy quantum processor. 雑音量子プロセッサを用いた高次元データの機械学習 0.72
arXiv preprint arXiv:2101.09581, 2021. arXiv preprint arXiv:2101.09581, 2021 0.40
[23] Javier Alcazar, Vicente Leyton-Ortega, and Alejandro Perdomo-Ortiz. Javier Alcazar氏、Vicente Leyton-Ortega氏、Alejandro Perdomo-Ortiz氏。 0.36
Classical versus quantum models in machine learning: insights from a finance application. 機械学習における古典的対量子モデル:金融アプリケーションからの洞察。 0.87
Machine Learning: Science and Technology, 1(3):035003, 2020. 機械学習: science and technology, 1(3):035003, 2020。 0.85
[24] Marco Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C Benjamin, Suguru Endo, Keisuke Fujii, Jarrod R McClean, Kosuke Mitarai, Xiao Yuan, Lukasz Cincio, [24]Marco Cerezo, Andrew Arrasmith, Ryan Babbush, Simon C Benjamin, Endo Suguru, Keisuke Fujii, Jarrod R McClean, Mitarai, Xiao Yuan, Lukasz Cincio
訳抜け防止モード: 24歳] マルコ・セレゾ アンドリュー・アラスミス ライアン・バブブッシュ simon c benjamin, suguru endo, keisuke fujii, jarrod r mcclean, 三田井耕助, 玄元, ルカシュ・シンシオ,
0.60
9 et al Variational quantum algorithms. 9 et al変分量子アルゴリズム。 0.57
Nature Reviews Physics, pages 1–20, 2021. Nature Reviews Physics, page 1–20, 2021。 0.47
[25] Shi-Xin Zhang, Zhou-Quan Wan, Chee-Kong Lee, Chang-Yu Hsieh, Shengyu Zhang, and Hong Yao. [25]四親張、周寛、チーコンリー、Chang-Yu Hsieh、Shengyu Zhang、Hong Yao。 0.69
Variational quantum-neural hybrid eigensolver. 変分量子ニューラルハイブリッド固有解法 0.75
arXiv preprint arXiv:2106.05105, 2021. arXiv preprint arXiv:2106.05105, 2021 0.40
[26] Andrea Mari, Thomas R. Bromley, Josh Izaac, Maria Schuld, and Nathan Killoran. 26] andrea mari、thomas r. bromley、josh izaac、maria schuld、nathan killoran。 0.56
Transfer learning in hybrid classical-quantum neural networks. ハイブリッド古典量子ニューラルネットワークにおける伝達学習 0.79
Quantum, 4:340, 2020. 量子、2020年4月3日。 0.62
[27] Chen Zhao and Xiao-Shan Gao. 27]チェン・ジャオとシャオ・シャン・ガオ。 0.45
with quantum neural network layers. 量子ニューラルネットワークの層で 0.71
arXiv:1912.12660, 2019. arXiv:1912.12660, 2019 0.36
Qdnn: Dnn arXiv preprint Qdnn: Dnn arXiv プレプリント 0.93
[28] Tong Dou, Kaiwei Wang, Zhenwei Zhou, Shilu Yan, and Wei Cui. [28]トン・ドゥー、カイワイ・ワン、Zhenwei Zhou、Shilu Yan、Wei Cui。 0.59
An unsupervised feature learning for quantumclassical convolutional network with applications to fault detection. 量子古典的畳み込みネットワークのための教師なし特徴学習と故障検出への応用 0.72
In 2021 40th Chinese Control Conference (CCC), pages 6351–6355. 2021年の第40回中国制御会議(CCC)にて6351-6355頁。 0.68
IEEE, 2021. IEEE、2021年。 0.81
[29] Alessandro Sebastianelli, Daniela Alessandra Zaidenberg, Dario Spiller, Bertrand Le Saux, and Silvia Liberata Ullo. Alessandro Sebastianelli, Daniela Alessandra Zaidenberg, Dario Spiller, Bertrand Le Saux, Silvia Liberata Ullo。
訳抜け防止モード: 29] alessandro sebastianelli, daniela alessandra zaidenberg, dario spiller, ベルタン・ル・ソーとシルビア・リベラータ・ウルロ。
0.66
On circuit-based hybrid quantum neural networks for remote sensing imagery classification. リモートセンシング画像分類のための回路ベースハイブリッド量子ニューラルネットワークについて 0.75
IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 15:565–580, 2021. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 15:565–580, 2021 0.47
[30] Sayantan Pramanik, M Girish Chandra, CV Sridhar, Aniket Kulkarni, Prabin Sahoo, Vishwa Chethan DV, Hrishikesh Sharma, Ashutosh Paliwal, Vidyut Navelkar, Sudhakara Poojary, et al A quantum-classical hybrid method for image classification and segmentation. 30]Sayantan Pramanik, M Girish Chandra, CV Sridhar, Aniket Kulkarni, Prabin Sahoo, Vishwa Chethan DV, Hrishikesh Sharma, Ashutosh Paliwal, Vidyut Navelkar, Sudhakara Poojary, et al 画像分類と分割のための量子古典ハイブリッド手法。 0.82
arXiv preprint arXiv:2109.14431, 2021. arxiv プレプリント arxiv:2109.14431, 2021。 0.40
[31] Jonathan Krause, Michael Stark, Jia Deng, and Li FeiFei. 31]ジョナサン・クラウス、マイケル・スターク、ジーア・デン、リー・フェイファイ。 0.47
3d object representations for fine-grained categorization. 細粒度分類のための3次元オブジェクト表現 0.65
In 4th International IEEE Workshop on 3D Representation and Recognition (3dRR-13), Sydney, Australia, 2013. 第4回International IEEE Workshop on 3D Representation and Recognition(3dRR-13, Sydney, Australia, 2013)に参加して 0.78
[32] Vojtˇech Havl´ıˇcek, Antonio D C´orcoles, Kristan Temme, Aram W Harrow, Abhinav Kandala, Jerry M Chow, and Jay M Gambetta. 32] ヴォイチェヒ・ハヴル・チュセク、アントニオ・d・c・オルコールズ、クリスタン・テンメ、アラム・w・ホロー、アビナヴ・カンダラ、ジェリー・m・チョウ、ジェイ・m・ガンベッタ。
訳抜け防止モード: 英語) Vojt'ech Havl, Antonio D C ́orcoles, Kristan Temme, Aram W Harrow, Abhinav Kandala, Jerry M Chow ジェイ・M・ガンベッタ(Jay M Gambetta)。
0.72
Supervised learning with quantumenhanced feature spaces. 量子化特徴空間を用いた教師あり学習 0.58
Nature, 567(7747):209–212, 2019. 自然誌 567(7747):209-212, 2019。 0.68
[33] Maria Schuld and Nathan Killoran. マリア・シュルドとネイサン・キロラン。 0.45
Quantum machine learning in feature hilbert spaces. 特徴ヒルベルト空間における量子機械学習。 0.76
Physical Review Letters, 122(4):040504, 2019. フィジカル・レビュー・レター 122(4):040504, 2019。 0.80
[34] Maria Schuld, Alex Bocharov, Krysta M Svore, and Nathan Wiebe. マリア・シュルド(Maria Schuld)、アレックス・ボチャロフ(Alex Bocharov)、クリスタ・M・スヴォーレ(Krysta M Svore)、ネイサン・ウィーベ(Nathan Wiebe)。 0.39
Circuit-centric quantum classifiers. 回路中心の量子分類器。 0.29
Physical Review A, 101(3):032308, 2020. 理学評 a, 101(3):032308, 2020。 0.75
[35] Patrick Rebentrost, Masoud Mohseni, and Seth Lloyd. [35]Patrick Rebentrost、Masoud Mohseni、Seth Lloyd。 0.34
Quantum support vector machine for big data classification. ビッグデータ分類のための量子サポートベクトルマシン。 0.86
Physical Review Letters, 113(13):130503, 2014. フィジカル・レビュー・レター、113(13)130503、2014年。 0.66
[36] Yunchao Liu, Srinivasan Arunachalam, and Kristan Temme. [36]ユンチャオ・リウ、スリニヴァサン・アルナチャラム、クリスタン・テムム。 0.26
A rigorous and robust quantum speed-up in supervised machine learning. 教師付き機械学習における厳密で堅牢な量子スピードアップ 0.73
Nature Physics, 17(9):1013– 1017, 2021. 自然物理学 17(9): 1013–1017, 2021。 0.90
[37] Ron Kohavi and George H. John. [37]ロン・コハビとジョージ・h・ジョン 0.60
Automatic parameter selection by minimizing estimated error. 推定誤差の最小化による自動パラメータ選択 0.88
In Armand Prieditis and Stuart Russell, editors, Machine Learning Proceedings 1995, pages 304–312. Armand Prieditis and Stuart Russell, editors, Machine Learning Proceedings 1995, page 304–312. 0.44
Morgan Kaufmann, San Francisco (CA), 1995. モーガン・カウフマン(Morgan Kaufmann) - 1995年のサンフランシスコ。 0.72
[38] Lisha Li, Kevin Jamieson, Giulia DeSalvo, Afshin Rostamizadeh, and Ameet Talwalkar. Lisha Li, Kevin Jamieson, Giulia DeSalvo, Afshin Rostamizadeh, Ameet Talwalkar。 0.29
Hyperband: A novel bandit-based approach to hyperparameter optimization. hyperband: ハイパーパラメータ最適化に対する新しいbanditベースのアプローチ。 0.68
The Journal of Machine Learning Research, 18(1):6765–6816, 2017. journal of machine learning research, 18(1):6765–6816, 2017年。 0.44
[39] Zohar Karnin, Tomer Koren, and Oren Somekh. [39]Zohar Karnin、Tomer Koren、Oren Somekh。 0.62
Almost ほとんど 0.70
英語(論文から抽出)日本語訳スコア
10 timization based on tt-decomposition. 10 tt分解に基づく最適化 0.51
Russian Journal of Numerical Analysis and Mathematical Modelling, 35(4):247–261, 2020. 英題: russian journal of numerical analysis and mathematical modelling, 35(4):247–261, 2020)。 0.75
[56] Sergei Goreinov, Ivan Oseledets, D. Savostyanov, E. Tyrtyshnikov, and Nickolai Zamarashkin. [56] セルゲイ・ゴライノフ、イヴァン・オセレデス、d・サヴォスタノフ、e・ティルティシュニコフ、ニコライ・ザマラシュキン 0.43
How to find a good submatrix. よいサブマトリックスを見つける方法。 0.66
Matrix Methods: Theory, Algorithms and Applications, 2010. Matrix Methods: Theory, Algorithms and Applications, 2010 (英語) 0.94
[57] optproblems. [57]オプトプロブレム。 0.56
optproblems/, 2022. optproblems/, 2022。 0.80
https://pypi.org/pro ject/ https://pypi.org/pro ject/ 0.21
[58] Jonathan Krause, Michael Stark, Jia Deng, and Li FeiFei. [58]ジョナサン・クラウス、マイケル・スターク、ジーア・デン、リー・ファイファイ。 0.51
3d object representations for fine-grained categorization. 細粒度分類のための3次元オブジェクト表現 0.65
In 4th International IEEE Workshop on 3D Representation and Recognition (3dRR-13), Sydney, Australia, 2013. 第4回International IEEE Workshop on 3D Representation and Recognition(3dRR-13, Sydney, Australia, 2013)に参加して 0.78
[59] Behnam Neyshabur, Hanie Sedghi, and Chiyuan Zhang. [59] behnam neyshabur、hanie sedghi、chiyuan zhang。 0.29
arXiv What is being transferred in transfer learning? arXiv 転校学習で何が移管されているのか? 0.50
preprint arXiv:2008.11687, 2020. プレプリントarxiv:2008.11687, 2020 0.49
[60] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. [60]開明,Xiangyu Zhang,Shaoqing Ren,Jian Sun。 0.29
Deep residual learning for image recognition. 画像認識のための深い残差学習 0.81
arXiv preprint arXiv:1512.03385, 2015. arxiv プレプリント arxiv:1512.03385, 2015 0.42
[61] Imagenet dataset. 61] Imagenet のデータセット。 0.85
https://image-net.or g/, 2022. https://image-net.or g/, 2022。 0.31
[62] PyTorch. [62]PyTorch。 0.36
https://pytorch.org/ , 2022. https://pytorch.org/ , 2022。 0.74
[63] Adam optimizer. 63] アダム・オプティマイザ 0.54
https://pytorch.org/ docs/stable/ https://pytorch.org/ docs/stable/ 0.18
generated/torch.opti m.Adam.html, 2022. generated/torch.opti m.Adam.html, 2022 0.24
[64] Diederik P Kingma and Jimmy Ba. ジデリック・P・キングマとジミー・バ 0.40
Adam: A method for stochastic optimization. Adam: 確率最適化の方法です。 0.69
arXiv preprint arXiv:1412.6980, 2014. arxiv プレプリント arxiv:1412.6980, 2014 0.42
[65] QMware, The first global quantum cloud. QMware - 世界初のグローバル量子クラウド。 0.50
https:// qm-ware.com, 2022. https:// qmware.com、2022年。 0.49
[66] Matthias C Caro, Hsin-Yuan Huang, M Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio, and Patrick J Coles. Matthias C Caro氏、Hsin-Yuan Huang氏、M Cerezo氏、Kunal Sharma氏、Andrew Sornborger氏、Lukasz Cincio氏、Patrick J Coles氏。
訳抜け防止モード: [66 ]Matthias C Caro, Hsin-Yuan Huang, M Cerezo, Kunal Sharma, Andrew Sornborger, Lukasz Cincio パトリック・J・コールズ(Patrick J Coles)。
0.78
Generalization in quantum machine learning from few training data. 少ないトレーニングデータからの量子機械学習の一般化。 0.83
arXiv preprint arXiv:2111.05292, 2021. arXiv preprint arXiv:2111.05292, 2021 0.40
optimal exploration in multi-armed bandits. In Sanjoy Dasgupta and David McAllester, editors, Proceedings of the 30th International Conference on Machine Learning, volume 28 of Proceedings of Machine Learning Research, pages 1238–1246, Atlanta, Georgia, USA, 2013. 多腕包帯の最適探査 Sanjoy Dasgupta and David McAllester, editors, Proceedings of the 30th International Conference on Machine Learning, Volume 28 of Proceedings of Machine Learning Research, page 1238–1246, Atlanta, Georgia, USA, 2013
訳抜け防止モード: 多腕包帯の最適探査 Sanjoy Dasgupta と David McAllester, editors, Proceedings of the 30th International Conference on Machine Learning 機械学習研究成果第28巻 1238-1246頁 アトランタ、ジョージア、アメリカ、2013年。
0.60
PMLR. [40] Liam Li, Kevin G. Jamieson, Afshin Rostamizadeh, Ekaterina Gonina, Moritz Hardt, Benjamin Recht, and Ameet Talwalkar. PMLR。 Liam Li, Kevin G. Jamieson, Afshin Rostamizadeh, Ekaterina Gonina, Moritz Hardt, Benjamin Recht, Ameet Talwalkar。 0.37
Massively parallel hyperparameter tuning. 超並列ハイパーパラメータチューニング。 0.82
arXiv preprint arXiv:1810.05934, 2018. arXiv preprint arXiv:1810.05934, 2018 0.40
[41] Frank Hutter, Holger H. Hoos, and Kevin Leyton-Brown. フランク・ハッター、ホルガー・H・フース、ケビン・レイトン=ブラウン。 0.60
Sequential model-based optimization for general algorithm configuration. 一般アルゴリズム構成のための逐次モデルに基づく最適化 0.74
In Carlos A. Coello Coello, editor, Learning and Intelligent Optimization, pages 507– 523. Carlos A. Coello Coello, editor, Learning and Intelligent Optimization, page 507–523。 0.42
Springer Berlin Heidelberg, 2011. ベルリン・ハイデルベルク、2011年。 0.65
[42] Marius Lindauer and Frank Hutter. [42]マリウス・リンダウアーとフランク・ハッター 0.53
Warmstarting of model-based algorithm configuration. モデルベースアルゴリズム構成のウォームスタート 0.74
Proceedings of the AAAI Conference on Artificial Intelligence, 32(1), 2018. AAAI Conference on Artificial Intelligence, 32(1), 2018 に参加して 0.73
[43] Diederick Vermetten, Hao Wang, Carola Doerr, and Thomas B¨ack. 43] ディードリック・ヴァーメッテン、ハオ・ワン、キャロラ・ドーア、トーマス・b・シャック 0.39
Sequential vs. integrated algorithm selection and configuration: A case study for the modular cma-es. 逐次対統合アルゴリズムの選択と構成:モジュラーcma-esのケーススタディ 0.68
arXiv preprint arXiv:1912.05899, 2020. arXiv preprint arXiv:1912.05899, 2020 0.40
[44] Thomas B¨ack. [44] トーマス・b・ザック 0.66
Evolutionary Algorithms in Theory and Practice: Evolution Strategies, Evolutionary Programming, Genetic Algorithms. 理論と実践における進化的アルゴリズム:進化戦略、進化的プログラミング、遺伝的アルゴリズム。 0.76
Oxford University Press, Inc., USA, 1996. オックスフォード大学出版局、1996年。 0.52
[45] Noor Awad, Gresa Shala, Difan Deng, Neeratyoy Mallik, Matthias Feurer, Katharina Eggensperger, Andre’ Biedenkapp, Diederick Vermetten, Hao Wang, Carola Doerr, Marius Lindauer, and Frank Hutter. Noor Awad, Gresa Shala, Difan Deng, Neeratyoy Mallik, Matthias Feurer, Katharina Eggensperger, Andre’ Biedenkapp, Diederick Vermetten, Hao Wang, Carola Doerr, Marius Lindauer, Frank Hutter。
訳抜け防止モード: [45 ]Noor Awad, Gresa Shala, Difan Deng, Neeratyoy Mallik, Matthias Feurer, Katharina Eggensperger, Andre ’ Biedenkapp Diederick Vermetten, Hao Wang, Carola Doerr, Marius Lindauer そしてフランク・ハッター。
0.41
Squirrel: A switching hyperparameter optimizer. Squirrel: スイッチングハイパーパラメータオプティマイザ。 0.40
arXiv preprint arXiv:2012.08180, 2020. arxiv プレプリント arxiv:2012.08180, 2020 0.42
[46] Thomas Elsken, Jan Hendrik Metzen, and Frank Hutter. [46]トーマス・エルスケン、ヤン・ヘンドリック・メッツェン、フランク・ヘター 0.54
Neural architecture search: A survey. ニューラルアーキテクチャサーチ: サーベイ。 0.42
The Journal of Machine Learning Research, 20(1):1997–2017, 2019. Journal of Machine Learning Research, 20(1):1997–2017, 2019 0.43
[47] Frank Hutter, Lars Kotthoff, and Joaquin Vanschoren. 47]フランク・ヘター、ラース・コトホフ、ホアキン・ヴァンスコーレン 0.55
Automated Machine Learning: Methods, Systems, Challenges. 自動機械学習: 方法論、システム、課題。 0.73
Springer Nature, 2019. [48] Ra´ul Berganza G´omez, Corey O’Meara, Giorgio Cortiana, Christian B. Mendl, and Juan Bernab´e-Moreno. 春田、2019年。 [48]Ra ́ul Berganza G ́omez, Corey O’Meara, Giorgio Cortiana, Christian B. Mendl, Juan Bernab ́e-Moreno。 0.41
A cloud-based automated cirTowards autoqml: cuit architecture search framework. クラウドベースの自動化cirtowards autoqml: cuitアーキテクチャ検索フレームワーク。 0.85
arXiv preprint arXiv:2202.08024, 2022. arXiv preprint arXiv:2202.08024, 2022 0.40
[49] Dmitry Zheltkov and Alexander Osinsky. ドミトリー・ツェルトコフと アレクサンドル・オシンスキー 0.39
Global optimization algorithms using tensor trains. テンソルトレインを用いたグローバル最適化アルゴリズム 0.58
Lecture Notes in Computer Science, 11958:197–202, 2020. コンピュータサイエンスの講義ノート 11958:197–202, 2020 0.85
[50] Sergey Kabanikhin, Olga Krivorotko, Shuhua Zhang, Victoriya Kashtanova, and Yufang Wang. [50]Sergey Kabanikhin, Olga Krivorotko, Shuhua Zhang, Victoriya Kashtanova, Yufang Wang。 0.34
Tensor train optimization for mathematical model of social networks. ソーシャルネットワークの数学的モデルのためのテンソルトレイン最適化 0.69
arXiv preprint arXiv:1906.05246, 2019. arxiv プレプリント arxiv: 1906.05246, 2019 0.43
[51] Dingheng Wang, Guangshe Zhao, Hengnu Chen, Zhexian Liu, Lei Deng, and Guoqi Li. 51] ディンヘン・ワン, ガンシェ・ジャオ, ヘンヌ・チェン, ヘキアン・リウ, レイ・デン, グチ・リ 0.43
Nonlinear tensor train format for deep neural network compression. ディープニューラルネットワーク圧縮のための非線形テンソルトレイン形式 0.69
Neural Networks, 144:320–333, 2021. ニューラルネットワーク, 144:320–333, 2021。 0.67
[52] Steven R. White. スティーブン・R・ホワイト(Steven R. White)。 0.52
Density matrix formulation for quantum renormalization groups. 量子再正規化群の密度行列定式化 0.78
Physical Review Letters, 69:2863–2866, 1992. 書評 69:2863–2866, 1992。 0.72
[53] J. Ignacio Cirac, David P´erez-Garc´ıa, Norbert Schuch, and Frank Verstraete. J. Ignacio Cirac, David P ́erez-Garc ́ıa, Norbert Schuch, Frank Verstraete 0.40
Matrix product states and projected entangled pair states: Concepts, symmetries, theorems. 行列積状態と射影的絡み合ったペア状態:概念、対称性、定理。 0.70
Reviews of Modern Physics, 93(4), 2021. 現代物理学』93(4)、2021年。 0.64
[54] Ivan Oseledets and Eugene Tyrtyshnikov. 54] イヴァン・オセデットとユージーン・ティラシニコフ 0.37
Tt-cross approximation for multidimensional arrays. 多次元配列に対するtt-cross近似 0.68
Linear Algebra and its Applications, 432(1):70–88, 2010. 線形代数とその応用, 432(1):70-88, 2010 0.79
[55] Dmitry Zheltkov and Eugene Tyrtyshnikov. 55] ドミトリー・ツェルトコフと ユージーン・ティルシニコフ 0.52
Global op- グローバルop- 0.76
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。