論文の概要、ライセンス

# (参考訳) 物理概念のための教師なし機械学習 [全文訳有]

Unsupervised machine learning for physical concepts ( http://arxiv.org/abs/2205.05279v1 )

ライセンス: CC BY 4.0
Ruyu Yang(参考訳) 近年、科学者の科学研究を支援するために機械学習が用いられている。 人間の科学的理論は一連の概念に基づいている。 実験データから概念を学習する方法は、重要な第一歩となるでしょう。 教師なし機械学習を用いて解釈可能な物理概念を抽出するハイブリッド手法を提案する。 この方法は2つの段階からなる。 まず、実験データのベッチ数を見つける必要があります。 次に,ベッチ数から有意な物理変数を抽出するために,変分オートエンコーダネットワークを用いる。 おもちゃのモデルでプロトコルをテストし、その仕組みを示します。

In recent years, machine learning methods have been used to assist scientists in scientific research. Human scientific theories are based on a series of concepts. How machine learns the concepts from experimental data will be an important first step. We propose a hybrid method to extract interpretable physical concepts through unsupervised machine learning. This method consists of two stages. At first, we need to find the Betti numbers of experimental data. Secondly, given the Betti numbers, we use a variational autoencoder network to extract meaningful physical variables. We test our protocol on toy models and show how it works.
公開日: Wed, 11 May 2022 05:48:46 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
unsupervised machine learning for physical concepts 物理的概念のための教師なし機械学習 0.57
Ruyu Yang1 1Graduate School of China Academy of Engineering Physics, Beijing 100193, China リュー・ヤン1 北京100193中国工学研究科1大学院 0.43
In recent years, machine learning methods have been used to assist scientists in scientific research. 近年、科学者の科学研究を支援するために機械学習が用いられている。 0.76
Human scientific theories are based on a series of concepts. 人間の科学的理論は一連の概念に基づいている。 0.79
How machine learns the concepts from experimental data will be an important first step. 実験データから概念を学習する方法は、重要な第一歩となるでしょう。 0.76
We propose a hybrid method to extract interpretable physical concepts through unsupervised machine learning. 教師なし機械学習を用いて解釈可能な物理概念を抽出するハイブリッド手法を提案する。 0.62
This method consists of two stages. この方法は2つの段階からなる。 0.75
At first, we need to find the Betti numbers of experimental data. まず、実験データのベッチ数を見つける必要があります。 0.59
Secondly, given the Betti numbers, we use a variational autoencoder network to extract meaningful physical variables. 次に,ベッチ数から有意な物理変数を抽出するために,変分オートエンコーダネットワークを用いる。 0.68
We test our protocol on toy models and show how it works. おもちゃのモデルでプロトコルをテストし、その仕組みを示します。 0.71
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] G L . s c [ ] G L。 sc [ 0.47
1 v 9 7 2 5 0 1 v 9 7 2 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
I. INTRODUCTION Physics is built on many different concepts, such as force, entropy, and Hamiltonian. 私は... 導入 物理学は力、エントロピー、ハミルトニアンといった様々な概念に基づいている。 0.51
Scientists derive meaningful concepts from observations by their ingenuity and then use formulas to connect them, constituting the theory. 科学者は観察から有意義な概念をその創造性から導き出し、それらを繋ぐために公式を使い、理論を構成する。
訳抜け防止モード: 科学者は観察から有意義な概念を創造性から導き出し、公式を使う つなげるのです 理論を構成する。
0.77
As a principle, this theory is always as simple as possible. 原則として、この理論は常に可能な限り単純である。 0.76
Since the beginning of the 21st century, machine learning has developed rapidly [1] and has been widely used in various fields [2–4], including machine-assisted scientific research [5–8]. 21世紀初頭以降、機械学習は急速に発展し、機械支援科学研究を含む様々な分野 [2-4] で広く使用されている [5-8]。 0.77
A natural question arises: can machines propose scientific theories by themselves? 機械は自分で科学的理論を提案できるのか? 0.59
It is undoubtedly a fundamental and challenging goal. それは間違いなく、基本的かつ挑戦的な目標である。 0.59
Many works have studied this from different aspects [9–16]. 多くの作品が異なる側面からこれを研究している [9–16]。 0.68
In general, the establishment of the theory can be divided into two steps: identify the critical variables from observations and connect them by formula. 一般に、理論の確立は2つの段階に分けられる: 観察から臨界変数を特定し、それらを公式で連結する。 0.75
A technique known as symbolic regression has been developed for the second step [17, 18]. 第2ステップ [17, 18] でシンボル回帰として知られる手法が開発された。 0.82
The authors propose a network named AI Feymann to automatically find the formula the system obeys. 著者らは、システムが従う公式を自動的に見つけるために、AI Feymannというネットワークを提案する。 0.65
To increase the success rate of symbolic regression, the critical variables identified by the first step should be as few as possible. 記号回帰の成功率を高めるために、最初のステップで識別される臨界変数は可能な限り少なくなければならない。 0.79
In this work, we focus on the first step of establishing a theory. 本研究では,理論の確立に向けた第一歩に着目する。 0.76
We suggest using both Topological Data Analysis(TDA)[19? , 20] and variational autoencoder(VAE) [21–27] to extract meaningful variables from extensive observations. 位相データ解析(tda)[19? , 20] と変分オートエンコーダ(vae) [21–27] を用いて広範囲な観測から有意な変数を抽出する。 0.70
TDA is a recent and fast-growing tool to analyze and exploit the complex topological and geometric structures underlying data. TDAは、データの基礎となる複雑なトポロジカルおよび幾何学的構造を分析し、活用する、急速に成長するツールである。
訳抜け防止モード: TDAは、最近かつ高速で成長するツールである 複雑なトポロジカルな構造と 幾何的な構造を 分析し利用します
0.69
This tool is necessary for our protocol if specific structures such as circles and sphere are in experimental data. このツールは、円や球などの特定の構造が実験データである場合に必要である。
訳抜け防止モード: このツールが我々のプロトコルに必要なら 円や球のような特定の構造は実験データにある。
0.83
VAE is a deep learning technique for learning latent representations. VAEは潜伏表現を学習するための深層学習技術である。 0.66
This technique has been widely used in many problems[28, 29] as a generative model. この手法は多くの問題[28, 29]で生成モデルとして広く用いられている。 0.85
It can also be seen as a manifold learning network for dimensionality reduction and unsupervised learning tasks. また、次元減少と教師なし学習タスクのための多様体学習ネットワークとして見ることもできる。 0.70
Our protocol has two stages. プロトコルには2つの段階があります。 0.54
Firstly, we use TDA to infer relevant topological features for experimental data. まず,TDAを用いて実験データのトポロジ的特徴を推測する。 0.70
In the simplest case, where the manifold has a low dimension, an essential feature for us is the Betti numbers, topology invariants. 最も単純な場合、多様体が低次元であるとき、私たちにとって重要な特徴はベッチ数、位相不変量である。 0.60
Once we get the topological features, we can design the proper architecture and loss function of VAE. トポロジ的な特徴が得られたら、VAEの適切なアーキテクチャと損失関数を設計できます。 0.73
As we will show later, the latent variables of VAE need to form a manifold homeomorphic to the manifold 後で示すように、vae の潜在変数は多様体に同相な多様体を形成する必要がある 0.63
composed of observations. After the training of the VAE network, the latent variables represent the key variables discovered by this machine. 観察でできています VAEネットワークのトレーニングの後、潜在変数は、このマシンによって発見されたキー変数を表す。 0.59
Thanks to the structure of the VAE network, the latent variables, and the observations are in one-to-one correspondence. VAEネットワークの構造、潜伏変数、観察は1対1の対応にある。
訳抜け防止モード: VAEネットワークの構造、潜伏変数のおかげで。 そして、観察は1対1の対応である。
0.58
Using the trained VAE network, one can calculate the latent variables and the observations from each other. トレーニングされたVAEネットワークを使用して、潜伏変数と観測結果を互いに計算することができる。
訳抜け防止モード: 訓練されたvaeネットワークを使って 潜在変数と観測結果を互いに計算することができる。
0.77
That means the formula derived by symbolic regression connecting the latent variables can predict the experimental phenomena. つまり、潜在変数を連結するシンボリック回帰によって導かれる公式は実験現象を予測できる。 0.78
We test our protocol on three toy models. 3つのおもちゃモデルでプロトコルをテストする。 0.78
They have different topological features. 位相的特徴が異なる。 0.48
The first is a classical coupled harmonic oscillator, where the observations constitute a circle embedded in three-dimensional Euclidean space. 1つ目は古典的結合調和振動子で、観測は3次元ユークリッド空間に埋め込まれた円を構成する。 0.69
Another example is two balls rotating around the same center, with different radius and angular velocities. もう一つの例は、半径と角速度が異なる2つの球が同じ中心を回って回転することである。 0.66
With the other ball as the reference system, the observations are the Cartesian coordinates of the ball. 他のボールを基準系として、観測はボールのデカルト座標である。 0.66
The observations constitute a lemniscate curve. 観測はレンニケート曲線を構成する。 0.70
The third is a two-level system, and the observations are the expected value of some physical quantity,i.e., some hermitian matrices. 3番目は2段階の系であり、観測はいくつかの物理量、すなわちいくつかのエルミタン行列の期待値である。 0.65
The observations constitute a sphere. 観測は球体を構成する。 0.73
This paper is organized as follows. 本論文は以下のとおり整理される。 0.68
In section II, we describe the works been done before and the problem we want to solve in more detail. 第2節では、以前行われた仕事と、より詳しく解決したい問題について説明する。 0.68
In section III, we introduce the architecture of neuron networks and argue why we need the manifold of latent variants should be homeomorphic to that of observations. 第3節では、ニューロンネットワークのアーキテクチャを紹介し、なぜ潜在変異多様体が観測値に同相である必要があるのかを論じる。 0.67
In section IV, we show the performance of this protocol on three toy models. 第4節では、3つのトイモデルでこのプロトコルの性能を示す。 0.67
We compare the observations and latent variables to show the relation between them. 観測値と潜伏変数を比較し,それらの関係を示す。 0.79
II. RELATED WORK AND OUR GOAL II。 関連作業及びこのゴール 0.63
Data-driven scientific discoveries are not new ideas. データ駆動の科学的発見は新しいアイデアではない。 0.60
It follows from the revolutionary work of Johannes Kepler and Sir Isaac Newton [30]. ヨハネス・ケプラー(Johannes Kepler)とアイザック・ニュートン(Isaac Newton)の革命的な作品[30]から続く。 0.60
Unlike the 17th century, we now have higher quality data and better calculation tools. 17世紀とは異なり、私たちは高品質のデータとより良い計算ツールを持っています。 0.68
People have done a lot of research on how to make machines help people make scientific discoveries in different contexts [8, 14, 31–34]. 人々は、異なる文脈で科学的な発見をするための機械の作り方について、多くの研究を行ってきました [8, 14, 31–34]。 0.70
In the early days, people paid more attention to the symbolic regression [17, 18, 35, 36]. 初期の人々は象徴的な回帰 [17, 18, 35, 36] にもっと注意を払っていた。 0.74
Another challenging direction is to let the machine design experiments. もう1つの難しい方向は、機械設計を実験させることだ。 0.61
In [37–40], authors designed automated search techniques and a reinforcement-learni ng- 著者は[37-40]で自動検索技術と強化学習を設計した。 0.65
英語(論文から抽出)日本語訳スコア
based network to generate new experimental setups. 新しい実験的なセットアップを生成するためのネットワーク。 0.68
In condensed physics, machine learning has been used to characterize phase transitions [41–46]. 凝縮物理学において、機械学習は[41-46]相転移を特徴づけるために用いられる。 0.68
In recent years, some works have contributed to letting the machine search for key physical concepts. 近年では、機械が重要な物理概念を探索できるようにするためにいくつかの研究が貢献している。 0.57
They used the different networks to extract key physical parameters from the experimental data [15, 47, 48]. 実験データ[15, 47, 48]から重要な物理パラメータを抽出するのに、異なるネットワークを使った。 0.83
In [15], authors propose an unsupervised method to extract physical parameters by interaction networks [49]. 筆者らは[15]において,インタラクションネットワークによる物理パラメータ抽出のための教師なし手法を提案する[49]。
訳抜け防止モード: 15]では、教師なしの方法を提案する 相互作用ネットワークで物理パラメータを抽出します [49]
0.78
Another helpful tool is the VAE network, which has been widely used for similar goal [47, 48]. もうひとつの便利なツールは,同じような目標 [47, 48] のために広く使用されているVAEネットワークだ。 0.73
VAE network is a powerful tool, by which one can minimize the numbers of extracted variables by making the variables independent of each other [26, 27]. VAEネットワークは、変数を互いに独立させることで、抽出された変数の数を最小化できる強力なツールである[26, 27]。 0.78
To do this, one can choose the prior distribution P これを行うには、事前分布 p を選べる 0.73
(z) as latent variables z. (z) は潜在変数 z である。 0.71
However, this method fails when the manifold of observations have some topological features. しかし、この方法は観測多様体が位相的特徴を持つときに失敗する。 0.62
This paper aims to solve this problem. 本稿ではこの問題を解決することを目的とする。 0.57
Here we describe this goal in more detail. ここでは、この目標についてさらに詳細に説明する。 0.62
Suppose we have an experimental system S. In this system S, some physical variables change as the experiment progresses. このシステムSでは、実験が進むにつれていくつかの物理変数が変化する。 0.72
We use P to denote the set consists of the value of these physical variables. P を用いてこれらの物理変数の値からなる集合を表す。
訳抜け防止モード: 我々は集合を表すためにPを使う これらの物理変数の値からなる。
0.75
We use P(k) to represent the value of these variables in time k. 時間 k におけるこれらの変数の値を表すのに P(k) を用いる。 0.81
From the system S we can derive an experimental data set E. Every data point is a vector E(k) ∈ E where E(k) denotes the data point belongs to time k. すべてのデータポイントはベクトル E(k) ∈ E であり、E(k) はデータポイントが時間 k に属することを示す。 0.55
From the perspective of physics, the change of experimental data must be attributed to the change of key physical variables. 物理学の観点からは、実験データの変化は重要な物理変数の変化によるものである必要がある。 0.81
Therefore there is a function f : P → E such that f(E(k)) = P(k) for any k. したがって、任意の k に対して f(E(k)) = P(k) となるような函数 f : P → E が存在する。 0.89
In this paper we aim to find the function ˜f and ˜f−1 such that ˜P(k) = ˜f−1(S(k)) where ˜P(k) constitute a set ˜P. この論文では、 t P(k) が集合 t P を構成するとき t P(k) = t f−1(S(k)) となるような函数 tf と tf−1 を求める。 0.59
We call ˜P(k) the effective physical variables. p(k) を実効的な物理変数と呼ぶ。 0.71
We remark that ˜P(k) is not necessary to equal to P(k), but their dimensions should be the same. P(k) は P(k) に等しくないが、それらの次元は同じであるべきである。
訳抜け防止モード: P(k ) は P(k ) と同値である必要はないと述べる。 しかし、彼らの次元は同じであるべきです。
0.78
Effective physical variables are enough to describe the experimental system. 効果的な物理変数は実験システムを記述するのに十分である。 0.68
In fact, one can redefine the physical quantity can get a theory that looks very different but the predicted results are completely consistent with existing theories. 実際、物理量を再定義することは、非常に異なるように見える理論が得られるが、予測結果は既存の理論と完全に一致している。 0.75
The problem arise if we try to use neuron network to find proper function ˜f and ˜f−1. この問題は、ニューロンネットワークを用いて適切な関数 sf と sf−1 を見つけようとすると生じる。 0.63
All the functions neuron network can simulate is continuous?? ニューロンネットワークがシミュレートできるすべての機能は連続か? 0.80
, so ˜f and ˜f−1 must be continuous. なので、f と f−1 は連続でなければならない。 0.52
In a real physical system, f and f−1 don’t have to be like this. 実の物理的システムでは、fとf−1はこのようなものではない。 0.79
Therefore, in some cases, we can never find a ˜P(k) which has the same dimension with P(k). したがって、ある場合において、P(k) と同じ次元を持つ shP(k) を見つけることはできない。 0.70
For example, suppose we have a ball rotating around a center. 例えば、ボールが中心の周りを回転していると仮定する。 0.78
The observable data is the location of the ball, denoted by Cartesian coordinates E(k) = (x(k), y(k)), which form a circle, and the simplest physical variable is the angle P(k) = θ(k) ∈ [0, 2π). In this case, f : θ → (x, y) is continuous while f−1 is not, which cannot be approximated by neural network. This is because f is a periodic function of θ. More generally, as long as the manifold composed of E has holes with any dimension, this problem arises. We call these physical variables topological physical variables(TPVs). Back to the last example, we can find the Betti numbers of the ball’s location is [1, 1, 0], where the second 1 means that it The observable data is the location of the ball, denoted by Cartesian coordinates E(k) = (x(k), y(k)), which form a circle, and the simplest physical variable is the angle P(k) = θ(k) ∈ [0, 2π). In this case, f : θ → (x, y) is continuous while f−1 is not, which cannot be approximated by neural network. This is because f is a periodic function of θ. More generally, as long as the manifold composed of E has holes with any dimension, this problem arises. We call these physical variables topological physical variables(TPVs). Back to the last example, we can find the Betti numbers of the ball’s location is [1, 1, 0], where the second 1 means that it
訳抜け防止モード: 観測可能なデータはボールの位置であり、デカルト座標 e(k) = (x(k)) で表される。 円を形成する y(k ) ) で、最も単純な物理変数は角 p(k ) = θ(k ) ∈ [ 0, 2π ) である。 f : θ → ( x, y ) は連続であるが、f−1 は連続ではない。 もっと一般的に言えば e からなる多様体は任意の次元の穴を持つ。 これらの物理変数を位相的物理変数(tpvs)と呼び、最後の例に戻ります。 ボールの位置のベッチ数は[1]である。 1 , 0 ] , 2 番目の 1 は
0.64
observations latent vaxriables 2 観察 潜伏性粘液 2 0.54
Encoder FIG. 1. エンコーダ FIG.1。 0.74
The observations of a system form a form a closed curve in a three-dimensional space. 系の観測は三次元空間における閉曲線を形成する。 0.73
We can encoder it as a two-dimensional circle. 二次元円としてエンコードできる。 0.61
However, we don’t have to encode it as a circle. しかし、それを円としてエンコードする必要はありません。 0.66
Ellipse or other homeomorphic curves are all allowed. 楕円あるいは他の同相曲線はすべて許容される。 0.70
has one TPVs. Due to this reason, we suggest using TDA to identify the topological features firstly. TPVが1つある。 そのため,まずTDAを用いてトポロジカルな特徴を同定することを提案する。 0.73
After knowing the numbers of TPVs, we can design proper latent variables and the corresponding loss function L. For the case we have two PPVs, we need two latent variables, named x and y, and we add the topological term |x2 + y2 − 1| to L to restrict them. 2つの PPV が存在する場合、x と y という2つの潜在変数が必要であり、それらを制限するために位相的項 |x2 + y2 − 1| を L に追加する。
訳抜け防止モード: TPVの数を知り、適切な潜在変数を設計できる 対応する損失関数 L の場合、PPVは2つあります。 xとyという2つの潜伏変数が必要です そして、L に位相項 |x2 + y2 − 1| を加えてそれらを制限する。
0.81
In at least two cases, the manifold will have holes. 少なくとも2つの場合、多様体は穴を持つ。 0.65
One is the E of a conversed system,e g , the classical harmonic oscillator. 1つは、古典的高調波発振器である可逆系のEである。 0.68
Another situation stems from the limits of the physical quantity itself, such as the single-qubit state, which forms a sphere. もう一つの状況は、球を形成するシングルキュービット状態など、物理量そのものの限界に起因している。 0.78
In addition to these two categories, sometimes the choice of observations and references also affects their topological properties. これら2つのカテゴリに加えて、観測と参照の選択もそれらのトポロジカルな性質に影響を与えることがある。 0.65
III. ARCHITECTURE OF NEURON NETWORK III。 ニューロンネットワークのアーキテクチャ 0.68
As shown in figure 2, This network consists of two parts. 図2に示すように、このネットワークは2つの部分からなる。 0.81
The left is called encoder, and the right is called decoder. 左はエンコーダ、右はデコーダと呼ばれる。 0.58
The encoder part is used to encode highdimensional data into low-dimensional space, while the decoder part is used to recover the data, i.e., the input from low-dimensional data. エンコーダ部は、高次元データを低次元空間に符号化するために使用され、デコーダ部は、低次元データからの入力を復元するために使用される。 0.80
The latent variables are low-dimensional data, and we hope they contain all the information needed to recover the input data. 潜在変数は低次元のデータであり、入力データの復元に必要なすべての情報が含まれていることを願っています。
訳抜け防止モード: 潜伏変数は低次元データである。 入力データを復元するのに必要な情報を すべて含んでほしいのです
0.73
So that we require the output ˆx is as close as possible to input x. なので、x をできるだけ近い出力で入力する必要がある。 0.68
Therefore, we can train this neuron network without supervision. したがって、このニューロンネットワークを監督なしで訓練することができる。 0.60
In general, the encoder and decoder can simulate arbitrary continuous function f and f−1. 一般に、エンコーダとデコーダは任意の連続関数 f と f−1 をシミュレートすることができる。 0.72
That imposes restrictions on latent variables: 潜在変数に制限を課します 0.59
Theorem 1. The manifold composed of latent variables must be homeomorphic to that of input x. 理論1。 潜在変数からなる多様体は入力 x に同相でなければならない。 0.61
This limitation means that the Betti numbers should keep the same. この制限はベッティ数を同じ値に保つことを意味する。 0.70
Suppose the inputs x form a circle, as shown in 1, the easiest quantity to describe these data is the angle. 入力 x を 1 に示すように円とすると、これらのデータを記述する最も簡単な量は角である。 0.85
According to 1, this neuron network can never find such a quantity because the angle will form a line segment that is not homeomorphic to a circle. 1 によれば、このニューロンネットワークは、角度が円に同型でない線分を形成するため、そのような量を見つけることができない。 0.72
On the other hand, VAE network can’t even find the Cartesian coordinate {x1, x2} because x1 and x2 are not irrelevant. 一方、VAEネットワークは、x1とx2が無関係であるため、カルト座標 {x1, x2} を見つけることもできない。 0.76
英語(論文から抽出)日本語訳スコア
input x output ˆx Latent 入力 x 出力:x 潜伏 0.44
Encoder Decoder エンコーダ デコーダ 0.72
FIG. 2. There is a bottleneck in the network which forces a compressed knowledge representation. FIG.2。 ネットワークには、圧縮された知識表現を強制するボトルネックがある。 0.73
One needn’t to set the decoder part as the inverse of encoder part, and the networks of encoder and decoder don’t have to be the same. デコーダ部分はエンコーダ部分の逆として設定する必要はなく、エンコーダとデコーダのネットワークは同じである必要はない。 0.64
In general, the dimension of output ˆx should be the same as the input x. 一般に、出力 x の次元は入力 x と同じでなければならない。 0.70
The number of hidden variables is usually less than the input. 隠れた変数の数は、通常入力よりも少ない。 0.73
To handle this case, we suggest analyzing the Betti numbers as a priori knowledge of input x and tell the neuron network. 本稿では,入力xの事前知識としてベッチ数を解析し,ニューロンネットワークに伝えることを提案する。 0.68
The general loss function is wirtten as [26]: L = −αEqφ(z|x) [log pθ(x | z)] + βDKL (qφ(z | x)kp(z)) (1) Here θ, φ are the parameters of decoder and encoder networks, respectively. L = −αEqφ(z|x) [log pθ(x | z)] + βDKL (qφ(z | x)kp(z)) 1) ここで θ, φ はそれぞれデコーダネットワークとエンコーダネットワークのパラメータである。
訳抜け防止モード: 一般損失関数は [26 ] : L = −αEqφ(z|x ) [ log pθ(x | z ) ] + βDKL (qφ(z | x)kp(z ) ) ( 1 ) ここで θ, φはデコーダネットワークとエンコーダネットワークのパラメータである。
0.85
p(z) is the prior distribution about the latent variables z. p(z) は潜在変数 z に関する事前分布である。 0.73
qφ(z|x) and pθ(x|z) denote the conditional probability. qφ(z|x) と pθ(x|z) は条件確率を表す。 0.73
DKL means the KL divergence of two distributions. DKL は二つの分布の KL の発散を意味する。 0.68
DKL (qφ(z | x)kp(z)) = Eqφ(z|x)(log qφ(z | x) − log p(z)) (2) To calculate the loss function for a given output ˆx, one needs to set up a prior p(z), and parameterize the distribution pθ and qφ. DKL (qφ(z | x)kp(z)) = Eqφ(z|x)(log qφ(z | x) − log p(z)) (2) 与えられた出力の損失関数を計算するには、事前の p(z) を設定し、分布 pθ と qφ をパラメータ化する必要がある。 0.93
In traditional VAE, the distributions p(z), pθ and qφ are often supposed to be multidimensional Gaussian distribution. 伝統的なVAEでは、分布 p(z)、pθ、qφ はしばしば多次元ガウス分布である。 0.77
The mean of p(z) is zero the and variance is 1. p(z) の平均は 0 であり、分散は 1 である。 0.76
The mean and variance of pθ and qφ is the output of encoder network. pθ と qφ の平均と分散はエンコーダネットワークの出力である。 0.82
In our cases, we choose the prior p(~z) as p(~z) = p( ~zg) × p(~zt). 我々の場合、事前の p(~z) を p(~z) = p(~zg) × p(~zt) として選ぶ。 0.79
Where ~zg denotes the GPVs, and ~zt denotes the TPVs. ここで ~zg は GPV を表し、 ~zt は TPV を表す。 0.79
With the same as traditional VAE, in order to minimize the number of GPVs, a convenient way is to choose p( ~zg) as Gaussion distribution p( ~zg) = N(0, I). 従来のVAEと同じで、GPVの数を最小化するために、都合の良い方法は、p( ~zg) をガウス分布 p( ~zg) = N(0, I) として選ぶことである。 0.77
According to the topological features, we choose a proper topological term T . 位相的特徴により、適切な位相的項 T を選択する。 0.44
We choose the p(~zt) as p(~zt) = Ae−T . p(~zt) を p(~zt) = Ae−T とする。 0.65
Here A is a constant. ここで A は定数である。 0.68
The variance can be asorpted into the hyperparameters in loss function. 分散は損失関数のハイパーパラメータに近似することができる。 0.74
For the conditional distribution we choose as s qφ(z | x) = N(~z, I), with constantly variance and means determined by the encoder network. 条件分布に対しては s qφ(z | x) = N(~z, I) とし、常に分散し、エンコーダネットワークによって決定される。 0.78
pθ(x | z) has the same expression pθ(x | z) = N(x, I). pθ(x | z) は同じ表現 pθ(x | z) = N(x, I) を持つ。 0.91
In this assumption, the KL divergence can be written as DKL (qφ(z | x)kp(z)) = −Eqφ(z|x)(log p(z)) + constant (3) この仮定では、KL の発散は DKL (qφ(z | x)kp(z)) = −Eqφ(z|x)(log p(z)) + constant (3) 0.82
Thus the loss function can be written as a simplier 従って損失関数は単純化として書ける。 0.77
expression: 3 2 + z2 表現: 3 2 + z2 0.55
1 + z2 L = αkx − ˆxk2 + βT − γlog(P( ~zg)) 1 + z2 L = αkx − ~xk2 + βT − γlog(P(~zg)) 0.45
(4) where α, β, γ are hyperparameters and T is the topological term depending on the Betti numbers. (4) α, β, γ が超パラメータであり、T がベッチ数に依存する位相項である。 0.70
For example, when the Betti numbers are {1, 0, 1}, T can be written as T = |z2 3 − 1|. 例えば、ベッチ数が {1, 0, 1} であるとき、T は T = |z2 3 − 1| と書くことができる。 0.86
When the Betti numbers are {1, 2, 0}, T can be written as T = |(z2 2)|, which is known as a Lemniscate. ベッチ数 {1, 2, 0} が {1, 2, 0} であるとき、T は T = |(z22)| と書ける。
訳抜け防止モード: ベッチ数が { 1, 2, 0 } であるとき、 T は T = |(z22)| と書くことができ、これはレムニスケート (Lemniscate) として知られている。
0.66
Here we use ~z to denote the latent variables. ここでは ~z を用いて潜在変数を表す。 0.61
P( ~zg) is the distribution of ~zg. P( ~zg) は ~zg の分布である。 0.84
We need to choose some latent variables as TPVs, and others as general physical variables(GPVs). TPVとして潜伏変数を、一般物理変数(GPV)として選択する必要がある。 0.77
In general, we know how many TPVs we need from the Betti numbers, but we usually don’t know how many GPVs we need. 一般的には、ベティ数から必要なTPVの数を知っていますが、通常、必要なGPVの数を知りません。 0.66
One solution is to set up as many GPVs as possible, and the redundant GPVs will be zero. 一つの解決策はできるだけ多くのGPVをセットアップすることであり、冗長なGPVはゼロである。 0.77
1 + z2 2)−2(z2 1 + z2 2)−2(z2) 0.43
1 − z2 1 − z2 である。 0.55
IV. NUMERICAL SIMULATION IV。 数値シミュレーション 0.49
We test this neuron network by numerical simulation. このニューロンネットワークを数値シミュレーションで検証する。 0.71
Three toy models whose manifolds are different are considered here. ここで、多様体が異なる3つの玩具モデルを考える。 0.63
We use pytorch to implement neural networks. ニューラルネットワークの実装にはpytorchを使用します。 0.59
Our code can be found here. 私たちのコードはここにある。 0.73
We use the same structure in the encoding and decoding network. 符号化および復号化ネットワークでは,同じ構造を用いる。 0.84
They have two hidden layers, each with 20 neurons. 2つの隠れた層があり、それぞれに20個のニューロンがある。 0.60
In encoder network, we choose Tanh as the active function, while in decoder network, we choose ReLU as the active function. エンコーダネットワークでは,Tanhをアクティブ関数とし,デコーダネットワークではReLUをアクティブ関数として選択する。 0.73
In numerical simulation, we first generate a database of 1000× m, where m is the dimension of the observations. 数値シミュレーションでは、まず1000×mのデータベースを生成し、mは観測の次元である。 0.71
We then use the TDA tools to analyze the Betti numbers of the manifold constituted by observations and set up the latent neurons. 次にtdaツールを用いて、観測によって構成された多様体のベッチ数を分析し、潜在ニューロンをセットアップする。 0.59
We used the Adam optimizer and set the learning rate to 0.0001. adamオプティマイザを使用して,学習率を0.0001に設定した。 0.57
At each training session, we randomly select 100 sets of data from the database as a batch, then calculate the average of its loss and reverse propagate it. 各トレーニングセッションでは、データベースからランダムに100セットのデータをバッチとして選択し、その損失の平均を計算し、それを逆伝播する。 0.83
All training can be done on the desktop in less than 6 hours. すべてのトレーニングは6時間以内でデスクトップで行うことができる。 0.78
A. classical Harmonic oscillator aだ 古典高調波発振器 0.63
One type of vital importance is the system with some conserved quantity. 重要なものの一つは、保存量のあるシステムである。 0.65
In classical mechanics, we study these systems by their phase space, constituted by all possible states. 古典力学では、これらの系をすべての可能な状態からなる位相空間で研究する。 0.71
Generalized coordinates and generalized momentum are usually not independent of each other, but it is not possible to uniquely determine the other when only one is known. 一般化座標と一般化運動量は、通常互いに独立ではないが、一方だけが知られている場合には他方を一意的に決定することはできない。 0.68
This is caused by the topological nature of the phase space. これは位相空間の位相的性質によって引き起こされる。 0.69
In some cases, the experimenter may only be able to make observations and cannot exert influence on the observation object. 場合によっては、実験者は観察できるだけであり、観察対象に影響を与えない場合もある。 0.79
At this time, the observations may constitute a compact manifold, and the traditional VAE network cannot accurately reduce the dimension of the parameter space. このとき、観測はコンパクト多様体を構成することができ、伝統的なVAEネットワークはパラメータ空間の次元を正確に還元することはできない。 0.76
英語(論文から抽出)日本語訳スコア
(a)latents of osillator (a)オシレータのラテント 0.51
(b)comparison between latent and x1 (b)比較 latent と x1 0.59
(c)comparison between latent and v (c)比較 latent (複数形 latents) 0.28
(d)latent of the ball’s orbit (d)ボールの軌道の相対性 0.63
4 (e)comparison between latent and x 4 (e)比較 latent と x 0.50
(f)comparison between latent and y (f)比較 latent (複数形 latents) 0.27
(g)latent of the (g)同級生の同級生 0.57
observations of quantum states (h)comparison between the 量子の観測 状態 (h)両者の比較 0.65
azimuths FIG. 3. azimuths 図3。 0.51
Fig 3(a) to 3 Fig 3(a) to 3 0.42
(c) belong to the first numerical simulation. (c) は、最初の数値シミュレーションに属する。 0.91
3 (d) to 3 (f) belong to the second numerical simulation. 3 (d)→3 (f)は第2の数値シミュレーションに属する。 0.53
3 (g) and 3 (h) belong to the third simulation. 3 (g)・3 (h)は第三のシミュレーションに属する。 0.55
z1 and z2 denote the TPVs and zg denotes the GPV. z1 と z2 は TPV を表し、zg は GPV を表す。 0.78
3(a) and 3 (d) shows that the GPV is always near zero, which means that we don’t need a GPV in these model. 3(a)および3 (d)は、GPVが常にゼロに近いことを示し、つまり、これらのモデルにGPVを必要としないことを意味する。 0.59
For the case of quantum state, we compare the polar coordinates of a quantum state and the azimuths of effective Bloch sphere. 量子状態の場合、量子状態の極座標と有効ブロッホ球面の方位を比較する。 0.54
k1 m k2 FIG. 4. k1 M k2 図4。 0.44
The conversed system consists of two spring connected to a ball. 逆系はボールに接続された2つのバネからなる。 0.63
The spring constants k1,k2 and the mass of the ball keep unchanged during the experiment. ばね定数k1,k2とボールの質量は実験中に変化しない。 0.75
The total energy comprises of the potential energy of two springs and the kinetic of the ball. 総エネルギーは2つのスプリングのポテンシャルエネルギーとボールの運動量からなる。 0.75
The most common conversed system is the harmonic oscillator, which is a conservative system. 最も一般的な会話系は、保守系である調和振動子である。 0.61
We first consider a ball connected with two springs, as shown in Fig 4. 図4に示すように、まず2つのバネに繋がるボールを考える。 0.74
We can write the energy as 私たちはエネルギーを書ける 0.71
1 + z2 bers are (1, 1, 0). 1 + z2 bers は (1, 1, 0) である。 0.69
It means that we need 2 latent variables (z1, z2) and the topological term in loss function (4) is 2 −1|. つまり、2つの潜在変数 (z1, z2) が必要であり、損失関数 (4) の位相項は 2 −1| である。 0.75
Besides, we set up one general physical T = |z2 variable, whose prior P(zg) is a Gaussian distribution. さらに、1つの一般物理 T = |z2 変数を設定し、その前の P(zg) はガウス分布である。 0.71
After the train is finished, we calculate the latent variables corresponding to the observations in E by encoder network. 列車が完成すると、エンコーダネットワークにより、Eにおける観測に対応する潜伏変数を算出する。 0.74
As is shown in Fig 3(a), the latent variables constitute a circle again. 図3(a)に示すように、潜在変数は再び円を構成する。 0.71
Fig 3(a) shows that the GPV zg is always zero for different observations. 図3(a)は、GPV zgは常に異なる観測に対してゼロであることを示している。 0.68
This means ˜P(k) = (z1, z2). つまり、p(k) = (z1, z2) である。 0.70
that the effective physical variables are We compared the new physical variables (z1, z2) with observations (x1, v), as shown in Fig ?? 実効的な物理変数が新しい物理変数 (z1, z2) と観測値 (x1, v) を比較していることは、図に示すように (? 0.79
and 3(c). Given effective physical variables ˜P, we can uniquely determine P while the mapping is continuous. および3(c)。 実効的な物理変数:p が与えられると、写像が連続であるときに一意的に p を決定できる。 0.63
They are one-to-one correspondence, so ˜P can be used to build a theory. それらは 1 対 1 の対応であるので、理論を構築するのに用いることができる。 0.52
E = 1 2 mv2 + 1 E = 1 2 mv2 + 1 0.46
2 k1(x − 1 2 k1(x − 1) である。 0.60
2)2 + 1 2 k2(x + 1 2)2 2)2 + 1 2 k2(x + 1 2)2 0.45
(5) B. Orbit Here we make m = 1 and k1 = k2 = 1. (5) B.軌道 ここで m = 1 と k1 = k2 = 1 とする。 0.67
The unit is not important. ユニットは重要ではありません。 0.64
In loss function 4 we make [α, β, γ] = [1, 1, 100]. 損失関数4では、 [α, β, γ] = [1, 1, 100] とする。 0.78
In this system, the underlying changing physical variables are P(k) = (x1, v) or (x2, v). このシステムでは、変動する物理変数は p(k) = (x1, v) あるいは (x2, v) である。 0.85
The observations one can choose here are E k = {x1, x2, v} where x1 and x2 denote the distance from the ball to the bottom of two springs, respectively, and v denote the speed of the ball. ここで選択できる観察は e k = {x1, x2, v} であり、x1 と x2 はそれぞれボールから2つのスプリングの底までの距離を表し、v はボールの速度を表す。 0.84
We specify that the direction of speed is positive to the right and negative to the left. 速度方向が右に正、左に負であることを指定する。 0.65
We generate the observations E(k) by randomly sampling from the evolution of the system. システムの進化からランダムにサンプリングすることで、観測E(k)を生成する。 0.74
According to classical mechanics, we know that the manifold should be a circle embedded in 3-d Euclid space. 古典力学によれば、多様体は三次元ユークリッド空間に埋め込まれた円であるべきである。 0.67
Programme shows that the Betti num- プログラムはベティナムを示す- 0.58
In classical physics and special relativity, the inertial reference system plays an important role. 古典物理学や特殊相対論において、慣性参照系は重要な役割を果たす。 0.72
The physical laws in an inertial reference frame are usually simpler than those in a non-inertial reference frame. 慣性参照フレームの物理法則は、通常、非慣性参照フレームの物理法則よりも単純である。 0.72
In fact, there was no concept of an inertial reference frame at the beginning. 実際、最初は慣性参照フレームという概念は存在しなかった。 0.70
Due to the existence of gravity, there is no truly perfect inertial reference frame. 重力の存在により、真の完全な慣性参照フレームは存在しない。 0.67
When observing some simple motions in a non-inertial frame, the observations may constitute some complex manifolds. 非慣性フレームでいくつかの単純な運動を観察するとき、観測はいくつかの複素多様体を構成するかもしれない。
訳抜け防止モード: 非慣性フレームでいくつかの単純な動きを観察するとき 観測は複雑な多様体を構成するかもしれません
0.60
Consider a scenario where two balls, labeled by 1 and 2, rotate around a fixed point, as shown in Fig 5. 図5に示すように、1と2でラベル付けされた2つのボールが固定点の周りを回転するシナリオを考える。 0.80
Both balls do a constant-speed circular motion. 両球は定速円形運動を行う。 0.78
We assume that the −1−0.500.51−1−0.500.51−101z1zgz2−1−0.500.51−1−0.500.51−101z1x1z2−1−0.500.51−1−0.500.51−101z1vz2−0.100.1−1−0.500.51−0.0500.05z1zgz2−0.100.1−101−0.0500.05z1xz2−0.100.1−1−0.500.51−0.0500.05z1yz2−0.500.5−1−0.500.5−101z1z2z312324602φ1θ0φ0 私たちは −1-0.500.51−1-0.500.51−1-0.51−101z2−10.500.51−1-0.500.51−101z1x1z2−10.500.51−1-0.500.51−101z1vz2−0.100.1−1-0.500.51-0.0500.05 z1z2-0.100.1−101-0.0500.05z1x2-0. 100.1−1-0.51-0.0500.05z1yz 2-0.50.50.5−1-0.50.50.501z1z3124 602φ000 0.23
英語(論文から抽出)日本語訳スコア
ω ball-1 ball-2 ω ボール-1 球-2 0.41
2ω FIG. 5. Two small balls rotate around the same immobility point. 2ω 図5。 2つの小さなボールは同じ不動点の周りを回転します。 0.55
The two balls move at a constant speed circumference on the planes of the two meetings. 2つのボールは、2つの会議の平面上で一定の速度で動きます。 0.74
One ball has twice the angular speed of the other. 1つのボールは、もう1つのボールの角速度の2倍である。 0.50
distance between it and the fixed point is その点と定点の間の距離は 0.78
1. Establishing the Cartesian coordinate system with a fixed point as the origin, ball− 1 starts at (1, 0, 0) and ball− 2 starts at (0, 0, 1). 1 固定点を原点としてデカルト座標系を確立すること、ball−1 は (1, 0, 0) から始まり、ball−2 は (0, 0, 1) で始まる。 0.81
They have the same radius of rotation, but they are on different planes. 回転半径は同じであるが、異なる平面上にある。 0.61
ball − 1 moves in the z = 0 plane and ball − 2 moves in the y = 0 plane. 球 − 1 は z = 0 平面で動き、球 − 2 は y = 0 平面で動く。 0.76
ball − 1 has the angular speed of ω1 = 1 and ball−2 has the angular speed of ω2 球 − 1 は ω1 = 1 の角速度を持ち、球 − 2 は ω2 の角速度を持つ 0.81
= 2. Unit is not important. = 2. 単位は重要ではない。 0.84
Observations E k = (x, y, z) is the three-dimensional coordinates of ball − 1 measured by ball − 2 as the reference system. 観測 E k = (x, y, z) は、参照系としてボール − 2 で測定されたボール − 1 の3次元座標である。 0.87
We generate the observations E(k) by random sampling from the trajectory With TDA we know the betti numbers of E are (1, 2, 0) so the topological term is |(z2 2)|, and again We set up one GPV. 我々は、軌道からのランダムサンプリングにより、E(k) を生成する。 TDA では、E のベッティ数は (1, 2, 0) であるため、位相項は |(z22)| であり、再び 1 つの GPV を設定する。 0.77
The hyperparameters of loss function 4 is [α, β, γ] = [1, 100, 100]. 損失関数 4 のハイパーパラメータは [α, β, γ] = [1, 100, 100] である。 0.82
After training, the latent variables corresponding to the observations E are plotted, as shown in fig 3 トレーニング後、図3に示すように、観察Eに対応する潜伏変数をプロットする。 0.70
(d). The GPV is always zero for different observations, which means the effective physical variables is ˜P = (z1, z2), like the first example. (d)。 GPVは常に異なる観測値に対してゼロであり、つまり、実効的な物理変数は、最初の例のように (z1, z2) である。 0.56
Fig 3 (e) and 3 (f) shows the comparison between the effective physical variables and observations. 図3 (e)・3 (f) 実効的な物理変数と観測値の比較を示す。 0.50
The results show that ˜P and observational measurements are still one-to-one, so ˜P is an effective representation. 結果は, 観測値と観測値が依然として1対1であることを示している。 0.54
2)2 − 0.01 × (z2 2)2 − 0.01 × (z2) 0.40
1 − z2 1 − z2 である。 0.55
1 + z2 C. Quantum state 1 + z2 C.量子状態 0.67
Both of the previously introduced situations come from the limitations of experimental conditions. いずれの状況も、実験条件の制限によるものである。 0.72
If we can modify the conserved quantities of conservative systems through experiments, or find some approximate inertial reference frames, such as the earth or distant stars, then it is possible to turn it into a situation that can be solved by traditional VAE networks. もし、実験を通じて保存された保存された系の量を修正したり、地球や遠い恒星のような近似慣性参照系を見つけることができるならば、従来のvaeネットワークによって解決できる状況にすることができる。 0.71
Unlike these, the topological properties of some observations are derived from the laws of physics. これらとは異なり、いくつかの観測の位相的性質は物理学の法則に由来する。 0.62
If this physical quantity can only take partial values in a certain experimental system, then the VAE network may work at this time. もしこの物理量が特定の実験システムでのみ部分値を取ることができれば、VAEネットワークはこの時点で機能する可能性がある。 0.74
But if we want to establish a physical theory, you need to have a compre- しかし、もし物理理論を確立させたいなら、あなたは理解する必要がある。 0.69
5 hensive understanding of the key parameters, and then you need a VAE network based on topological properties. 5 鍵となるパラメータを理解するには、トポロジ特性に基づいたVAEネットワークが必要です。 0.60
In quantum mechanics, quantum state is described by wave function, i.e. a vector in Hilbert space. 量子力学において、量子状態は波動関数、すなわちヒルベルト空間のベクトルによって記述される。 0.85
Here we consider a two-level system, which according to quantum mechanics can be described as |ψi = a|0i + b|1i, where |a|2 + |b|2 = 1. ここでは、量子力学によれば、|a|2 + |b|2 = 1 となるような2段階の系を考える。 0.73
The machine don’t know how to describe this system, but it will learn some efficient variables. マシンはこのシステムを記述する方法を知りませんが、効率的な変数を学習します。 0.79
Suppose we can get five observations in experiments,i.e. E k = {O1,O2, . . . ,O5}. E k = {O1,O2, . . ,O5} という実験で5つの観測値が得られると仮定する。 0.81
In experiments, E is due to the experimental setup. 実験では、Eは実験装置によるものである。 0.80
In our numerical simulation, we calculate observations by Oi = hψ|Oi|ψi, where Oi is the pauli matrix and the combination of pauli matrix: O1 = 数値シミュレーションでは,オイがパウリ行列であり,パウリ行列の組合せであるOi = h |Oi|...i による観測を計算する。 0.67
(cid:20) 0 1 (cid:20)01 0.35
,O3 = (cid:21) ,O3 = (出典:21) 0.57
(cid:21) (cid:20) 1 0 (cid:20) 1 0 −1 i−i −1 (出典:21) (cid:20) 1 0 (cid:20) 1 0 −1 i−i −1 0.53
(cid:21) (cid:21) (出典:21)(出典:21) 0.63
(6) 1 0 O4 = (6) 10O4 = 0.33
(cid:20) ,O2 = 0 1 − i (cid:20) ,O2 = 0 1 − i 0.44
(cid:20) 0 i−i 0 (cid:21) (cid:20) 0 i-i 0 (cid:21) 0.35
1 + i 0 ,O5 = 1 + i 0 ,O5 = 0.44
We need many different states, so the coefficient a and b of the wave function are the physical variables that change as the experiment progresses. 多くの異なる状態が必要であるため、波動関数の係数 a と b は実験が進むにつれて変化する物理変数である。 0.82
In this model, P consists of wave functions we use and P k = {ak, bk}. このモデルでは、p は私たちが使う波動関数と p k = {ak, bk} からなる。 0.87
The first step is to characterize the topological feature of E. By TDA, we can find that the Betti numbers of the data set are [1, 0, 1], which means that the manifold of E is homeomorphic to a sphere. 最初のステップは、E の位相的特徴を特徴づけることである。 TDA により、データセットのベッチ数は [1, 0, 1] であり、つまり E の多様体は球面に同型である。
訳抜け防止モード: 最初のステップは to characterize the topological features of E. By TDA データセットのベッチ数は [1] であることが分かる。 0, 1 ] つまり、E の多様体は球面に同型である。
0.69
This can be understood because we can use the point on the Bloch sphere to represent the state of a two-level system. これは、ブロッホ球面上の点を使って二階系の状態を表現することができるためである。 0.66
So that we know the number of TVs is 3. というわけで、テレビの数は3.3台だ。 0.64
However, we don’t know how many GVs are. しかし、GVがいくつあるかはわかりません。 0.76
Different from TVs, we can assume GVs are independent of each other. テレビと異なり、GVは互いに独立していると仮定できる。 0.77
In general, we do this by assuming P(~z) in (4) is independent Gaussian distribution. 一般に、 (4) の P(~z) が独立ガウス分布であると仮定してこれをする。 0.80
In this case, we only introduce one GV. この場合、1つのGVのみを導入します。 0.72
As shown in Fig 3 (g), after training, TVs form a sphere. 図に示すように 3 (g) トレーニング後、テレビは球体を形成する。 0.67
At the same time GV stabilizes near 0(not drawn in the figure). 同時に、GVは0(図にはない)近くで安定化する。 0.80
That means the five observations can be reduced to three variables continuously. つまり、5つの観測を連続的に3つの変数に減らすことができる。 0.66
We call these three variables as equivalent density matrix, denoted by ˜ρ. これら3つの変数を ρ で表される同値密度行列と呼ぶ。 0.79
Only two of them are independent. 2人だけが独立している。 0.75
We can construct two independent angles (θ, φ) by transforming Cartesian coordinates to polar coordinates. 直交座標を極座標に変換することにより、2つの独立な角度(θ, φ)を構築することができる。 0.63
In figure 3 (h) we compare (θ0, φ0) and φ1 corresponding to the equivalent density matrix. 図3では (h) 等価密度行列に対応する (θ0, φ0) と φ1 を比較する。 0.82
We can see that these two representations have a one-to-one correspondence. これら2つの表現は1対1の対応を持つことがわかる。 0.53
Unlike before, the mapping here is discontinuous. 以前とは異なり、このマッピングは不連続である。 0.61
V. CONCLUSION V.コンキュレーション 0.76
In this work, we discuss the defect of the traditional VAE network and propose a simple solution. 本稿では,従来のVAEネットワークの欠陥について考察し,簡単な解法を提案する。 0.71
We can extract the minimum effective physical variables from the experimental data with the improved method by classifying the latent variables. 予備変数を分類することにより,実験データから最小有効物理変数を抽出することができる。 0.69
We test our approach on three models. アプローチを3つのモデルでテストします。 0.67
They represent three different situations that may arise that traditional VAE cannot handle. 従来のVAEでは対応できない3つの異なる状況を表す。 0.67
Some 一部 0.48
英語(論文から抽出)日本語訳スコア
of them come from experimental restrictions, and some come from physical laws. そのうちのいくつかは実験的な制限によるもので いくつかは物理法則によるものです 0.51
We think the latter situation is more essential. 後者の状況はもっと重要だと思います。 0.71
However, in the more complex case, the Betti numbers are not the only useful topological features. しかし、より複雑な場合、ベッチ数は唯一の有用な位相的特徴ではない。 0.55
Two manifolds may have the same Betti numbers but not Homeomorphic. 2つの多様体は同じベッチ数を持つが同相ではない。 0.51
In such a case, more topological features are needed to design reasonable restrictions on latent variables. この場合、潜在変数に対する合理的な制限を設計するために、よりトポロジカルな特徴が必要である。 0.55
When the manifold dimension is higher, it may be hard for TDA to calculate the Betti numbers. 多様体次元が高ければ、TDAがベッチ数を計算するのは難しいかもしれない。 0.64
One efficient way is to firstly reduce the dimensions by traditional autoencoder, and then calculate the Betti numbers of latent variables. 1つの効率的な方法は、まず従来のオートエンコーダによって次元を減らし、次に潜伏変数のベッチ数を計算することである。 0.54
Another important question is how to ensure that the relation between meaningful variables and observations is simple. もう1つの重要な問題は、意味のある変数と観測値の関係が単純であることを保証する方法である。
訳抜け防止モード: もう一つ重要な疑問は 意味のある変数と観察の関係が シンプルであることを保証するためです
0.71
We leave it for the future work. 私たちはそれを将来の仕事に残します。 0.66
Appendix A: persistent homology and betti numbers Appendix A: 永続ホモロジーとベッティ数 0.58
Persistent homology is a useful tool for analyzing topological data. 永続ホモロジーは位相データの解析に有用なツールである。 0.60
The first step is to generate a simplicial complex from the observations. 最初のステップは、観測から単純な複合体を生成することである。 0.72
Vietoris–Rips complex is a way of forming a topological space from distances in a set of points. ビエトリス・リプス複体(Vietoris–Rips complex)は、点の集合内の距離から位相空間を形成する方法である。 0.54
This method uses a generalisation of an  neighbouring graph and the final complex is この方法は隣り合うグラフの一般化を使い、最終的な複体は 0.67
V = {σ|r(u, v) < , (u, v) ∈ σ} σ = {σ|r(u, v) < σ, (u, v) ∈ σ} である。 0.80
(A1) Here σ denotes the simplex and u, v are two data points. (A1) ここで σ は単純点を表し、u, v は2つのデータ点である。 0.56
r is the Euclidean metric. r はユークリッド計量である。 0.59
A k-simplex σ is expressed as σ = [p1, p2, . . . , pk+1], where p denotes the point in the space. k-複素σ は σ = [p1, p2, . . . , pk+1] と表され、p は空間の点を表す。 0.86
Given a set of k-simplex σi, one k-chain is defined by k-単純x σi の集合が与えられたとき、1つの k-鎖が定義される 0.53
c = Σiciσi c = Σiciσi 0.34
(A2) Here the coefficients ci take values in some field. (A2) ここで係数 ci は、あるフィールドで値を取る。 0.55
For the simplicial complex V, we denote the set of all k-chains by Ck(V). 単純複素数 V に対して、すべての k-鎖の集合を Ck(V) で表す。 0.75
We can introduce the addition between two k-chain. 2つのk鎖間の付加を導入することができる。 0.50
For c = Σiciσi and d = Σidiσi, the addition is c+ d = Σi(ci + di)σi. c = Σiciσi と d = Σidiσi に対して、加法は c+ d = Σi(ci + di)σi である。 0.69
Furthermore, the set of all k-chains Ck(V) form a abelian group (Ck(V), +). さらに、すべての k-鎖 Ck(V) の集合はアーベル群(Ck(V), +)を形成する。 0.82
For different k, a natural group homomorphism is the 異なる k に対して、自然群準同型は、 0.74
boundary operator ∂k : Ck(V ) → Ck−1(V ) 境界演算子 ∂k : Ck(V) → Ck−1(V) 0.58
(A3) Boundary operator is linear, and it can be defined by the simplex (A3) 境界演算子は線型であり、それはシンプレックスによって定義できる 0.57
6 ∂k(σk) = Σi=k 6 ∂k(σk) = Σi=k 0.38
i=0(−1)ihp0, . . . , pi−1, pi+1, . . . , pki i=0(−1)ihp0, . . , pi−1, pi+1, . . 0.47
(A4) One important subgroup of Ck(V) is the kernel of the boundary operator Zk, namely k-cycles. (A4) Ck(V) の重要な部分群は境界作用素 Zk の核、すなわち k-サイクルである。 0.62
There is also an important subgroups of Zk, denoted by Bk, which is the imagine Bk(V ) = Im(∂k+1Ck+1(V)). また、Zk の重要な部分群は Bk で表され、Bk(V) = Im(∂k+1Ck+1(V)) である。 0.88
Both Zk and Bk are normal, so we can define the quotient group Hk = Zk/Bk, called the k-th homology group. Zk と Bk はともに正規であるため、商群 Hk = Zk/Bk を k 番目のホモロジー群と定義することができる。 0.67
The rank of Hk is called the k-th Betti number. hk の階数は k 番目のベッチ数と呼ばれる。 0.52
Appendix B: Comparison with other work Appendix B: 他の作品との比較 0.87
As we point in the paper, the topological feature of latent space will influence the construction of the output. 論文で指摘するように、潜在空間の位相的特徴は出力の構成に影響を及ぼす。 0.58
In the field of machine learning, this phenomenon is called manifold mismatch [50–53], which will lead to poor representations. 機械学習の分野では、この現象は多様体ミスマッチ[50-53]と呼ばれ、表現不良につながる。 0.69
Let’s consider what happens when manifold mismatch occurs. 多様体のミスマッチが発生したらどうなるかを考えましょう。 0.55
Recall the first example, suppose we have a latent structure as S1, i.e., a circle. 最初の例をリコールし、S1、すなわち円として潜在構造を持つと仮定する。 0.74
While in normal VAE, the prior distribution p 通常の vae では、事前分布 p は 0.77
(z) will limit the latent structure to be Rn, where n is the number of latent variables. (z) は潜在構造を rn に制限し、ここで n は潜在変数の数である。 0.69
This prior will make the hidden variables independent of each other. この前は、隠れた変数が互いに独立になる。 0.62
Like before, here we set n = 3. 前と同様に、ここで n = 3 とする。 0.61
One parameter can describe this system, e g the angle θ. 1つのパラメータは、例えば角度 θ のようなこのシステムを記述することができる。 0.65
Thus we get a network which maps the coordinate (x, したがって、座標 (x,) をマップするネットワークが得られる。 0.79
y) to a parameter θ and then maps the θ to the coordinate (x, y) パラメータ θ に対して、その後 θ を座標 (x,) に写像する。 0.81
y). In practice, our data set is finite, and the finally network will only be effective for an arc on the circle, instead of the total circle. y)であった。 実際には、データセットは有限であり、最終的にネットワークは円全体ではなく円上の弧に対してのみ有効である。 0.57
This problem can be worse when the manifold dimension is higher. この問題は多様体次元が高ければさらに悪化する。 0.60
In the earlier works, some methods have been developed for capturing the topological features of date set. 初期の研究では、日付集合の位相的特徴を捉えるためにいくつかの方法が開発されている。 0.56
However, to our understanding, these methods are not suitable for our goal because they usually derive a set of entangled latent vatiables. しかしながら、我々の理解では、これらの手法は、通常、絡み合った潜在変数の集合を導出するため、私たちの目標には適さない。 0.54
[1] J. Liu, X. Kong, F. Xia, X. Bai, L. Wang, Q. Qing, and [1] J. Liu, X. Kong, F. Xia, X. Bai, L. Wang, Q. Qing 0.49
I. Lee, IEEE Access 6, 34403 (2018). I. Lee, IEEE Access 6, 34403 (2018)。 0.45
[2] G. H. Teichert, A. Natarajan, A. Van der Ven, [2] g. h. teichert, a. natarajan, a. van der ven, 0.35
and K. Garikipati, Computer Methods in Applied Mechanics and Engineering 353, 201 (2019). K. Garikipati, Computer Methods in Applied Mechanics and Engineering 353, 201 (2019)。 0.40
[3] D. Bourilkov, International Journal of Modern Physics A D. Bourilkov, International Journal of Modern Physics A (英語) 0.72
34, 1930019 (2019). 34, 1930019 (2019). 0.43
[4] S. Mishra, D. Mishra, and G. H. Santra, Indian Journal S. Mishra, D. Mishra, G. H. Santra, Indian Journal 0.37
of Science and Technology 9, 1 (2016). サイエンス・アンド・テクノロジー』第9号(2016年)。 0.57
[5] J. Vamathevan, D. Clark, P. Czodrowski, I. Dunham, E. Ferran, G. Lee, B. Li, A. Madabhushi, P. Shah, M. Spitzer, et al , Nature Reviews Drug Discovery 18, 463 (2019). J. Vamathevan, D. Clark, P. Czodrowski, I. Dunham, E. Ferran, G. Lee, B. Li, A. Madabhushi, P. Shah, M. Spitzer, et al , Nature Reviews Drug Discovery 18, 463 (2019)。 0.46
[6] J. J. Valletta, C. Torney, M. Kings, A. Thornton, and [6]j・j・ヴァレッタ、c・トーニー、m・キングス、a・ソーントン、そして 0.62
J. Madden, Animal Behaviour 124, 203 (2017). J. Madden, Animal Behaviour 124, 203 (2017)。 0.44
[7] J. Schmidt, M. R. Marques, S. Botti, and M. A. Marques, J. Schmidt, M. R. Marques, S. Botti, M. A. Marques 0.38
npj Computational Materials 5, 1 (2019). npj Computational Materials 5, 1 (2019)。 0.78
[8] G. Carleo, I. Cirac, K. Cranmer, L. Daudet, M. Schuld, N. Tishby, L. Vogt-Maranto, and L. Zdeborov´a, Reviews of Modern Physics 91, 045002 (2019). G. Carleo, I. Cirac, K. Cranmer, L. Daudet, M. Schuld, N. Tishby, L. Vogt-Maranto, L. Zdeborov ́a, Reviews of Modern Physics 91, 045002 (2019)。 0.45
[9] S. Ha and H. Jeong, arXiv preprint arXiv:2102.04008 9]s.haとh.jeong、arxivプレプリントarxiv:2102.04008 0.40
(2021). [10] S. Zhang and G. Lin, Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences 474, 20180305 (2018). (2021). S. Zhang and G. Lin, Proceedings of the Royal Society A: Mathematical, Physical and Engineering Sciences 474, 20180305 (2018)
訳抜け防止モード: (2021). [10 ]S.張とG.林,王立協会Aの成果 : 数学・物理・工学科学474 20180305 ( 2018 ) .
0.51
[11] N. Boull´e, C. J. Earls, and A. Townsend, arXiv preprint 11] N. Boull ́e, C. J. Earls, A. Townsend, arXiv preprint 0.46
英語(論文から抽出)日本語訳スコア
[22] D. P. Kingma and M. Welling, arXiv preprint [22]D.P.キングマとM.ウェリング,arXiv 0.60
[42] A. Uvarov, A. Kardashin, and J. D. Biamonte, Physical [42] A. Uvarov, A. Kardashin, J. D. Biamonte, Physical 0.48
7 Data Engineering 31, 1544 (2018). 7 データエンジニアリング31年、1544年(2018年)。 0.46
[33] S. J. Wetzel, Physical Review E 96, 022140 (2017). [33] S. J. Wetzel, Physical Review E 96, 022140 (2017)。 0.46
[34] J. F. Rodriguez-Nieva and M. S. Scheurer, Nature [34] J. F. Rodriguez-Nieva と M. S. Scheurer, Nature 0.40
Physics 15, 790 (2019). 物理学 15, 790 (2019)。 0.85
[35] S. Kim, P. Y. Lu, S. Mukherjee, M. Gilbert, L. Jing, V. ˇCeperi´c, and M. Soljaˇci´c, IEEE Transactions on Neural Networks and Learning Systems (2020). [35]S. Kim, P. Y. Lu, S. Mukherjee, M. Gilbert, L. Jing, V. Ceperi ́c, M. Solja'ci ́c, IEEE Transactions on Neural Networks and Learning Systems (2020)。 0.41
arXiv F. Charton, arXiv f・シャルトン 0.50
preprint Lample プレプリント ランプ 0.65
[36] G. and [36] G。 そして 0.55
arXiv:1912.01412 (2019). arXiv:1912.01412 (2019)。 0.67
[37] A. A. Melnikov, H. P. Nautrup, M. Krenn, V. Dunjko, M. Tiersch, A. Zeilinger, and H. J. Briegel, Proceedings of the National Academy of Sciences 115, 1221 (2018). A. A. Melnikov, H. P. Nautrup, M. Krenn, V. Dunjko, M. Tiersch, A. Zeilinger, H. J. Briegel, Proceedings of the National Academy of Sciences 1115, 1221 (2018)。
訳抜け防止モード: A. A. Melnikov, H. P. Nautrup, M. Krenn, V. Dunjko, M. Tiersch, A. Zeilinger, H. J. Briegel 国立科学アカデミー115号、1221号(2018年)。
0.79
[38] M. Krenn, M. Malik, R. Fickler, R. Lapkiewicz, and A. Zeilinger, Physical review letters 116, 090405 (2016). M. Krenn, M. Malik, R. Fickler, R. Lapkiewicz, A. Zeilinger, Physical Review Letter 116, 090405 (2016). 0.41
[39] T. F¨osel, P. Tighineanu, T. Weiss, and F. Marquardt, [39]T.F.ショセル、P.Tighineanu、T.Weiss、F.Marquardt 0.69
Physical Review X 8, 031084 (2018). フィジカルレビュー x 8, 031084 (2018) 0.61
[40] M. Bukov, A. G. Day, D. Sels, P. Weinberg, A. Polkovnikov, and P. Mehta, Physical Review X 8, 031086 (2018). M. Bukov, A. G. Day, D. Sels, P. Weinberg, A. Polkovnikov, P. Mehta, Physical Review X 8, 031086 (2018). 0.44
[41] E. P. Van Nieuwenburg, Y. [41] E. P. Van Nieuwenburg, Y。 0.48
-H. Liu, and S. D. Huber, -h。 Liu, and S. D. Huber 0.61
Nature Physics 13, 435 (2017). 自然物理学13年、435年(2017年)。 0.58
(2017). Review A 102, 012415 (2020). (2017). A 102, 012415 (2020)を参照。 0.59
[43] J. Carrasquilla and R. G. Melko, Nature Physics 13, 431 [43]J. Carrasquilla and R. G. Melko, Nature Physics 13, 431 0.49
[44] L. Wang, Physical Review B 94, 195105 (2016). 44] L. Wang, Physical Review B 94, 195105 (2016)。 0.39
[45] K. Ch’Ng, J. Carrasquilla, R. G. Melko, and E. Khatami, [45]K. Ch’Ng,J. Carrasquilla,R. G. Melko,E. Khatami 0.43
Physical Review X 7, 031038 (2017). フィジカルレビュー x 7, 031038 (2017)。 0.67
[46] L. -W. [46]l。 -W。 0.58
Yu and D. -L. Deng, Physical Review Letters 126, とD。 -L。 Deng, Physical Review Letters 126, 0.45
240402 (2021). 240402 (2021). 0.42
[47] R. Iten, T. Metger, H. Wilming, L. Del Rio, and R. Ren- [47]R. Iten,T. Metger,H. Wilming,L. Del Rio,R. Ren 0.41
ner, Physical review letters 124, 010508 (2020). ner, physical review letters 124, 010508 (2020)。 0.39
[48] P. Y. Lu, S. Kim, and M. Soljaˇci´c, Physical Review X [48]P.Y.ル,S.キム,M.ソルジャシ,物理レビューX 0.78
10, 031056 (2020). 10, 031056 (2020). 0.42
[49] P. W. Battaglia, R. Pascanu, M. Lai, D. Rezende, and K. Kavukcuoglu, arXiv preprint arXiv:1612.00222 (2016). P. W. Battaglia, R. Pascanu, M. Lai, D. Rezende, K. Kavukcuoglu, arXiv preprint arXiv:1612.00222 (2016) 0.48
[50] P. de Haan [50]P。 デ・ハーン 0.40
and L. Falorsi, そしてL. Falorsi。 0.73
arXiv preprint arXiv プレプリント 0.53
arXiv:1812.10783 (2018). arXiv:1812.10783 (2018)。 0.68
[51] T. R. Davidson, L. Falorsi, N. De Cao, T. Kipf, and J. M. 51] T. R. Davidson, L. Falorsi, N. De Cao, T. Kipf, J. M。 0.46
Tomczak, arXiv preprint arXiv:1804.00891 (2018). Tomczak, arXiv preprint arXiv:1804.00891 (2018)。 0.41
[52] L. A. P. Rey, V. Menkovski, and J. W. Portegies, arXiv 52] L. A. P. Rey, V. Menkovski, J. W. Portegies, arXiv 0.46
preprint arXiv:1901.08991 (2019). arXiv:1901.08991 (2019) 0.39
[53] L. Gong and Q. Cheng, arXiv preprint arXiv:1901.09970 [53]L.Gong,Q.Cheng,arXiv preprint arXiv:1901.09970 0.35
(2019). [12] N. Zobeiry and K. D. Humfeld, arXiv preprint (2019). 12] N. Zobeiry と K. D. Humfeld, arXiv preprint 0.45
arXiv:2105.00266 (2021). arXiv:2105.00266 (2021)。 0.33
arXiv:1909.13718 (2019). arXiv:1909.13718(201 9)。 0.67
101, 075021 (2020). 101, 075021 (2020). 0.42
(2019). [13] M. Farina, Y. Nakai, and D. Shih, Physical Review D (2019). [13]M. Farina, Y. Nakai, D. Shih, Physical Review D 0.44
[14] T. Wu and M. Tegmark, Physical Review E 100, 033311 [14]T.WuとM.Tegmark, Physical Review E 100, 033311 0.43
[15] D. Zheng, V. Luo, J. Wu, and J. B. Tenenbaum, arXiv [15]D.Zheng,V.Luo,J.Wu,J .B.Tenenbaum,arXiv 0.33
preprint arXiv:1807.09244 (2018). プレプリント arxiv:1807.09244 (2018) 0.47
[16] R. T. D’Agnolo and A. Wulzer, Physical Review D 99, 16] R. T. D'Agnolo と A. Wulzer, Physical Review D 99, 0.46
[17] S. -M. [17]S。 -M。 0.38
Udrescu and M. Tegmark, Science Advances 6, UdrescuとM. Tegmark、Science Advances 6 0.37
015014 (2019). 015014 (2019). 0.42
eaay2631 (2020). eaay2631(2020年)。 0.37
[18] S. -M. [18]S。 -M。 0.37
Udrescu, A. Tan, J. Feng, O. Neto, T. Wu, and Udrescu, A. Tan, J. Feng, O. Neto, T. Wu, and 0.47
M. Tegmark, arXiv preprint arXiv:2006.10782 (2020). M. Tegmark, arXiv preprint arXiv:2006.10782 (2020)。 0.39
[19] L. Wasserman, Annual Review of Statistics and Its Ap- [19] L. Wasserman, Annual Review of Statistics and its Ap- 0.48
[20] J. Murugan and D. Robertson, 20]j・モルガンとd・ロバートソン 0.61
arXiv preprint arXiv プレプリント 0.83
[21] D. P. Kingma and M. Welling, arXiv preprint [21]D.P.キングマとM.ウェリング,arXiv 0.61
plication 5, 501 (2018). 合併症5、501(2018年)。 0.42
arXiv:1904.11044 (2019). アーXiv:1904.11044 (2019)。 0.40
arXiv:1906.02691 (2019). arXiv:1906.02691 (2019)。 0.68
arXiv:1312.6114 (2013). arxiv:1312.6114 (2013)。 0.21
[23] J. An and S. Cho, Special Lecture on IE 2, 1 (2015). [23]j.an,s. cho, special lecture on ie 2, 1 (2015) 0.32
[24] S. Khobahi [24]S.Khobahi 0.43
and M. Soltanalian, そしてM.ソルタニアン。 0.61
arXiv preprint arXiv プレプリント 0.83
arXiv:1911.12410 (2019). arXiv:1911.12410 (2019)。 0.68
[25] D. J. Rezende, S. Mohamed, 25] d. j. rezende, s. mohamed. 0.41
and D. Wierstra, in International conference on machine learning (PMLR, 2014) pp. 1278–1286. D. Wierstra, in International conference on machine learning (PMLR, 2014) pp. 1278–1286。 0.43
[26] I. Higgins, L. Matthey, A. Pal, C. Burgess, X. Glorot, [26]I. Higgins, L. Matthey, A. Pal, C. Burgess, X. Glorot, 0.46
M. Botvinick, S. Mohamed, and A. Lerchner, (2016). M. Botvinick, S. Mohamed, A. Lerchner (2016)。 0.42
[27] C. P. Burgess, I. Higgins, A. Pal, L. Matthey, N. Watand A. Lerchner, arXiv preprint [27]C. P. Burgess, I. Higgins, A. Pal, L. Matthey, N. Watand A. Lerchner, arXiv preprint 0.45
ters, G. Desjardins, arXiv:1804.03599 (2018). ters, G. Desjardins, arXiv:1804.03599 (2018)。 0.40
[28] I. A. Luchnikov, A. Ryzhov, P. [28]I. A. Luchnikov, A. Ryzhov, P. 0.48
-J. Stas, S. N. Filippov, -j。 Stas, S. N. Filippov 0.59
and H. Ouerdane, Entropy 21, 1091 (2019). H. Ouerdane, Entropy 21 1091 (2019)。 0.67
[29] O. Cerri, T. Q. Nguyen, M. Pierini, M. Spiropulu, and J. O. Cerri, T. Q. Nguyen, M. Pierini, M. Spiropulu, J. 0.38
-R. Vlimant, Journal of High Energy Physics 2019, 1 (2019). -R。 英題:vlimant, journal of high energy physics 2019, 1 (2019)。 0.43
[30] R. Roscher, B. Bohn, M. F. Duarte, and J. Garcke, Ieee [30]R. Roscher, B. Bohn, M. F. Duarte, J. Garcke, Ieee 0.47
Access 8, 42200 (2020). アクセス8,42200 (2020)。 0.64
[31] F. Cichos, K. Gustavsson, B. Mehlig, [31]F. Cichos, K. Gustavsson, B. Mehlig 0.48
Nature Machine Intelligence 2, 94 (2020). ナチュラル・マシン・インテリジェンス 2, 94 (2020)。 0.69
and G. Volpe, そしてG.Volpe。 0.68
[32] A. Karpatne, I. Ebert-Uphoff, S. Ravela, H. A. Babaie, and V. Kumar, IEEE Transactions on Knowledge and [32]A. Karpatne, I. Ebert-Uphoff, S. Ravela, H. A. Babaie, V. Kumar, IEEE Transactions on Knowledge and 0.46
               ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。