論文の概要、ライセンス

# (参考訳) 固有次元推定 [全文訳有]

Intrinsic Dimension Estimation ( http://arxiv.org/abs/2106.04018v1 )

ライセンス: CC BY 4.0
Adam Block, Zeyu Jia, Yury Polyanskiy, and Alexander Rakhlin(参考訳) 多くの実用的な機械学習タスクで遭遇する高次元データは、低次元構造、すなわち多様体仮説が持つと長い間考えられてきた。 したがって、自然問題とは、有限サンプルから与えられた集団分布の固有次元を推定することである。 固有次元の新しい推定器を導入し, 有限標本, 非漸近保証を提供する。 次に,本手法を応用して,データ固有次元のみに依存する生成逆ネットワーク (gans) の新たなサンプル複雑性境界を得る。

It has long been thought that high-dimensional data encountered in many practical machine learning tasks have low-dimensional structure, i.e., the manifold hypothesis holds. A natural question, thus, is to estimate the intrinsic dimension of a given population distribution from a finite sample. We introduce a new estimator of the intrinsic dimension and provide finite sample, non-asymptotic guarantees. We then apply our techniques to get new sample complexity bounds for Generative Adversarial Networks (GANs) depending only on the intrinsic dimension of the data.
公開日: Tue, 8 Jun 2021 00:05:39 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] L M . t a t s [ 8 ]LM . t a t s [ 0.74
1 v 8 1 0 4 0 1 v 8 1 0 4 0 0.85
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
A New Estimator of Intrinsic Dimension 内在次元の新しい推定器 0.70
Adam Block MIT アダム・ブロック MIT 0.76
Zeyu Jia MIT Yury Polyanskiy 慈阿世友 MIT ユーリ・ポリアンスキー 0.58
Alexander Rakhlin アレクサンダー・ラフリン 0.51
MIT MIT June 9, 2021 MIT MIT 2021年6月9日 0.81
Abstract It has long been thought that high-dimensional data encountered in many practical machine learning tasks have low-dimensional structure, i.e., the manifold hypothesis holds. 概要 多くの実用的な機械学習タスクで遭遇する高次元データは、低次元構造、すなわち多様体仮説が持つと長い間考えられてきた。
訳抜け防止モード: 概要 長い間 多くの実用的な機械学習タスクで見られる高次元データは低次元構造である。 すなわち、多様体仮説が成り立つ。
0.61
A natural question, thus, is to estimate the intrinsic dimension of a given population distribution from a finite sample. したがって、自然問題とは、有限サンプルから与えられた集団分布の固有次元を推定することである。 0.79
We introduce a new estimator of the intrinsic dimension and provide finite sample, non-asymptotic guarantees. 固有次元の新しい推定器を導入し, 有限標本, 非漸近保証を提供する。 0.74
We then apply our techniques to get new sample complexity bounds for Generative Adversarial Networks (GANs) depending only on the intrinsic dimension of the data. 次に,本手法を応用して,データ固有次元のみに依存する生成逆ネットワーク (gans) の新たなサンプル複雑性境界を得る。 0.79
1 Introduction Recently, practical applications of machine learning involve a very large number of features, often many more features than there are samples on which to train a model; despite this imbalance, many modern machine learning models work astonishingly well. はじめに 最近、機械学習の実践的な応用には、非常に多くの機能が含まれており、しばしばモデルをトレーニングするサンプルよりも多くの機能を含んでいる。
訳抜け防止モード: はじめに 近年、機械学習の実践的応用には、非常に多くの機能がある。 しばしば多くの特徴が モデルを訓練するサンプルがあります この不均衡にもかかわらず、多くの現代の機械学習モデルは驚くほどうまく機能します。
0.67
One of the more compelling explanations for this behavior is the manifold hypothesis, which posits that, though the data appear to the practitioner in a high-dimensional, ambient space, RD, they really lie on (or close to) a low dimensional space M of “dimension” d (cid:28) D, where we define dimension formally below. この振る舞いのより説得力のある説明の1つは多様体の仮説であり、この仮説は、データは高次元の周囲空間 RD の実践者には見えるが、それらは実際には "次元" d (cid:28) D の低次元空間 M 上(あるいは近く)にある、と仮定している。 0.80
A good example to keep in mind is that of image data: each of thousands of pixels corresponds to three dimensions, but we expect that real images have some inherent structure that limits the true number of degrees of freedom in a realistic picture. 例えば、何千ピクセルものピクセルが3次元に対応していますが、実際の画像は、現実的な画像における真の自由度を制限する固有の構造を持っていると期待しています。
訳抜け防止モード: 念頭に置いておくべき良い例は画像データです :各数千画素は3次元に対応している。 しかし私たちは 実像は、実像における真の自由度を制限するいくつかの固有の構造を持つ。
0.79
This phenomenon has been thoroughly explored over the years, beginning with the linear case and moving into the more general, nonlinear regime, with such works as Niyogi et al (2008, 2011); Belkin & Niyogi (2001); Bickel et al (2007); Levina & Bickel (2004); Kpotufe (2011); Kpotufe & Dasgupta (2012); Kpotufe & Garg (2013); Weed et al (2019); Tenenbaum et al (2000); Bernstein et al (2000), among many, many others. この現象は、線形の場合から、より一般的な非線形系へと移行し、Niyogi et al (2008, 2011), Belkin & Niyogi (2001), Bickel et al (2007), Levina & Bickel (2004), Kpotufe (2011); Kpotufe & Dasgupta (2012), Kpotufe & Garg (2013); Weed et al (2019); Tenenbaum et al (2000), Bernstein et al (2000) など、長年にわたって徹底的に研究されてきた。 0.72
Some authors have focused on finding representations for these lower dimensional sets Niyogi et al (2008); Belkin & Niyogi (2001); Tenenbaum et al (2000); Roweis & Saul (2000); Donoho & Grimes (2003), while other work has focused on leveraging the low dimensionality into statistically efficient estimators Bickel et al (2007); Kpotufe (2011); Nakada & Imaizumi (2020); Kpotufe & Dasgupta (2012); Kpotufe & Garg (2013). いくつかの著者は、これらの低次元集合の表現を見つけることに集中しており、Niyogi et al (2008), Belkin & Niyogi (2001), Tenenbaum et al (2000), Roweis & Saul (2000), Donoho & Grimes (2003), Kpotufe et al (2007), Kpotufe (2011), Nakada & Imaizumi (2020), Kpotufe & Dasgupta (2012), Kpotufe & Garg (2013), Kpotufe & Garg (2013) がある。 0.71
In this work, our primary focus is on estimating the intrinsic dimension. 本研究では,本質的次元の推定に主眼を置きます。 0.63
To see why this is an important question, note that the local estimators of Bickel et al (2007); Kpotufe (2011); Kpotufe & Garg (2013) and the neural network architecture of Nakada & Imaizumi (2020) all depend in some way on the intrinsic dimension. なぜこれが重要な質問なのかを見るために、bickel et al (2007)、kpotufe (2011)、kpotufe & garg (2013)、そしてニューラル・ネットワーク・アーキテクチャであるnakada & imaizumi (2020) のローカルな推定者は、いずれも内在的な次元に何らかの依存していることに注意しよう。 0.67
As noted in Levina & Bickel (2004), while a practitioner may simply apply cross-validation to select the optimal hyperparameters, this can be very costly unless the hyperparameters have a restricted range; thus, an estimate of intrinsic dimension is critical in actually applying the above works. levina & bickel (2004) で述べられているように、実践者は単に最適なハイパーパラメータを選択するためにクロスバリデーションを適用することができるが、ハイパーパラメータが制限範囲を持っていなければ、これは非常にコストがかかる。 0.64
In addition, for manifold learning, where the goal is to construct a representation of the data manifold in a lower dimensional space, the intrinsic dimension is a key parameter in many of the most popular methods Tenenbaum et al (2000); Belkin & Niyogi (2001); Donoho & Grimes (2003); Roweis & Saul (2000). さらに、低次元空間におけるデータ多様体の表現を構築することを目標とする多様体学習において、本質次元は、最も人気のある手法であるtenenbaum et al (2000), belkin & niyogi (2001), donoho & grimes (2003), roweis & saul (2000) において重要なパラメータである。 0.80
We propose a new estimator, based on distances between probability distributions, as well as provide rigorous, finite sample guarantees for the quality of the novel procedure. 本稿では,確率分布間の距離に基づく新しい推定器を提案するとともに,本手法の品質に関する厳密で有限なサンプル保証を提供する。 0.84
Recall that if µ, ν are two measures on a metric space (M, dM ), then the Wasserstein-p distance between µ and ν is μ, ν が計量空間 (M, dM ) 上の 2 つの測度であれば、μ と ν の間のワッサーシュタイン-p 距離は、 0.88
(1) where Γ(µ, ν) is the set of all couplings of the two measures. 1 つの測度のすべてのカップリングの集合の集合であるような場合(μ, ν)。 0.64
If M ⊂ RD, then there are two natural metrics to put on M : one is simply the restriction of the Euclidean metric to M while the other is the geodesic m {\displaystyle m} が rd {\displaystyle m} であれば、 m {\displaystyle m} 上の二つの自然な計量が存在する: 1つは単にユークリッド計量の m {\displaystyle m} への制限であり、もう1つは測地線である。
訳抜け防止モード: M {\displaystyle M} が RD であれば、2つの自然測度が存在する。 一つは単に M に対するユークリッド計量の制限である。 もう1つは測地学です
0.75
(X,Y )∼Γ(µ,ν) (X,Y)→(μ,ν) 0.73
inf W M p (µ, ν)p = inf W M p (μ, ν)p = 0.85
E [dM (X, Y )p] E [dM (X, Y )p] 0.85
1 1 0.85
英語(論文から抽出)日本語訳スコア
metric in M , i.e., the minimal length of a curve in M that joins the points under consideration. m の計量、すなわち、考慮中の点を結合する m の曲線の最小の長さ。 0.70
In the sequel, if the metric is simply the Euclidean metric, we leave the Wasserstein distance unadorned to distinguish it from the intrinsic metric. 続編において、計量が単にユークリッド計量であるなら、ワッサーシュタイン距離は内在計量と区別するために無調整のまま残す。 0.52
For a thorough treatment of such distances, see Villani (2008). そのような距離を徹底的に扱うには、Villani (2008) を参照。 0.74
We recall that the Holder integral probability metric (Holder IPM) is given by 我々はホルダー積分確率計量(ホルダーIPM)が与えられることを思い出す。 0.70
dβ,B(µ, ν) = sup f∈Cβ dβ,B(μ,ν) = sup f・Cβ 0.82
B (Ω) B (複数形 Bs) 0.53
Eµ[f (X)] − Eν[f (Y )] Eμ[f(X)] − Eν[f(Y)] 0.82
(2) where C β B(Ω) is the Holder ball defined in the sequel. (2) ここで c β b(ω) は続編で定義されるホルダーボールである。 0.78
When p = β = 1, the classical result of KantorovichRubinstei n says that these distances agree. p = β = 1 のとき、カントロヴィチ・ルビンシュタインの古典的な結果はこれらの距離が一致すると言う。 0.60
It has been known at least since Dudley (1969) that if a space M has dimension d, P is a measure with support M , and Pn is the empirical measure of n independent samples drawn from P, then W M d . 少なくともDudley (1969) 以来、空間 M が次元 d を持つとき、P は M の測度であり、Pn は P から引き出された n 個の独立標本の実験的測度であり、W M d である。 0.74
More recently, Weed et al (2019) has determined sharp rates for the convergence of this quantity for higher order Wasserstein distances in terms of the intrinsic dimension of the distribution. より最近では、Weed et al (2019) は分布の内在次元の観点から、高次ワッサーシュタイン距離に対するこの量の収束の急激な速度を決定した。 0.62
Below, we find sharp rates for the convergence of the empirical measure to the population measure with respect to the Holder IPM: if β < d 2 then dβ(Pn, P) (cid:16) n− 1 2 . 以下に示すのは、実証測度がホールダー IPM に対して集団測度に収束する際の急速度である: β < d 2 ならば dβ(Pn, P) (cid:16) n − 1 2 である。 0.74
These sharp rates are intuitive in that convergence to the population measure should only depend on the intrinsic complexity (i.e. これらの急激な速度は直感的であり、集団測度への収束は内在的な複雑さ(すなわち)にのみ依存すべきである。 0.55
dimension) without reference to the possibly much larger ambient dimension. 次元) より大きな環境次元を参照せずに。 0.65
2 , then dβ(Pn, P) (cid:16) n− β 2, dβ(Pn, P) (cid:16) n− β 0.95
1 (Pn, P) (cid:16) n− 1 1 (Pn, P) (cid:16) n− 1 0.94
d and if α > d d と α > d であれば 0.87
The above convergence results are nice theoretical insights, but they have practical value, too. 上記の収束結果は優れた理論的洞察であるが、実際的な価値もある。 0.76
The results of Dudley (1969); Weed et al (2019), as well as our results on the rate of convergence of the Holder IPM, present a natural way to estimate the intrinsic dimension: take two independent samples, Pn, Pαn from P p (Pαn, P) or dβ(Pn, P)/dβ(Pαn, P); as n → ∞, the first ratio should and consider the ratio of W M β be about αd, while the second should be about α d , and so d can be computed by taking the logarithm with respect to α. dudley (1969), weed et al (2019) の結果およびホルダーipmの収束率に関する結果は、本質的な次元を推定する自然な方法を示している: p p (pαn, p) または dβ(pn, p)/dβ(pαn, p) から 2つの独立したサンプル pn, pαn を取る。
訳抜け防止モード: Dudley (1969 ) ; Weed et al (2019 ) の結果 ホルダーIMMの収束率に関する結果だけでなく 固有次元を推定する自然な方法を提示します。2つの独立したサンプルを取ります。 Pp(Pαn,P)またはdβ(Pn)からPn,Pαnを得る。 P)/dβ(Pαn, P ) ; n → ∞ として、最初の比は、 W M β の比率は αd であり、二番目は αd であるべきである。 したがって d は α に対して対数を取ることで計算できる。
0.87
The first problem with this idea is that we do not know P; to address this, we instead compute using two independent samples. このアイデアの第一の問題は、我々はPを知らないことだ;これに対応するために、2つの独立したサンプルを用いて計算する。 0.66
A more serious issue regards how large n must be in order for the asymptotic regime to apply. より深刻な問題は、漸近的体制を適用するために n がどれほど大きいかである。 0.65
As we shall see below, the answer depends on the geometry of the supporting manifold. 下記に示すように、その答えは支持多様体の幾何学に依存する。 0.65
p (Pn, P)/W M p(Pn,P)/WM 0.77
We define two estimators: one using the intrinsic distance and the other using Euclidean distance 我々は二つの推定子を定義する: 1つは内在距離、もう1つはユークリッド距離 0.62
dn = log W1(Pn, P (cid:48) dn = log W1(Pn, P)(cid:48) 0.84
n) − log W1(Pαn, P (cid:48) n) − log w1(pαn, p(cid:48) 0.82
αn) log α log W G αn) ログα ログwg 0.65
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
n) − log W G n) − log W G 0.85
1 (Pαn, P (cid:48) 1 (Pαn, P (cid:48) 0.81
αn) log α (3) αn) ログα (3) 0.81
where the primes indicate independent samples of the same size and G is a graph-based metric that approximates the intrinsic metric. 素数は同じ大きさの独立した標本を示し、G は内在計量を近似するグラフベースの計量である。 0.68
Before we go into the details, we give an informal statement of our main theorem, which provides finite sample, non-asymptotic guarantees on the quality of the estimator: Theorem 1 (Informal version of Theorem 21). 詳細を述べる前に、我々は主定理の非公式な記述を与え、有限サンプル、非漸近的保証を推定器の品質に与える:定理1(定理21のインフォーマルバージョン)。
訳抜け防止モード: 詳細を説明する前に、我々は我々の主定理を非公式に述べる。 これは有限サンプル、非漸近的な推定器の品質保証を提供する: Theorem 1 (Theorem 21 のインフォーマルバージョン)。
0.77
Let P be a measure on RD supported on a compact manifold of dimension d. Let τ be the reach of M , an intrinsic geometric quantity defined below. p を次元 d のコンパクト多様体上の rd 上の測度とし、τ を m の到達点とする。
訳抜け防止モード: P を次元 d のコンパクト多様体上のRD 上の測度とする。 τ は M のリーチであり、以下に定義される固有幾何学量である。
0.79
Suppose we have N independent samples from P where P から N 個の独立したサンプルがあると仮定する。 0.59
(cid:101)dn = (cid:101)dn = 0.88
(cid:32) (cid:18) vol M (cid:32) (cid:18) vol M 0.83
(cid:19) d+2 (cid:19)d+2 0.63
(cid:18) ωd (cid:18) ωd 0.78
2β ∨ log 1 ρ 2β ∨ ログ 1 ρ 0.82
(cid:19)3(cid:33) (cid:19)3(cid:33) 0.78
N = Ω τ−d ∨ where ωd is the volume of a d-dimensional Euclidean unit ball. N =Ω τ−d ωd は d-次元ユークリッド単位球の体積である。 0.83
Then with probability at least 1 − 6ρ, the そして、少なくとも 1 − 6ρ の確率で、 0.87
estimated dimension (cid:101)dn satisfies 推定次元(101)dn 満足度 0.79
≤ (cid:101)dn ≤ (1 + 4β)d ≤ (cid:101)dn ≤ (1 + 4β)d 0.96
d 1 + 4β The same conclusion holds for dn. d 1 + 4β 同じ結論がdnにも当てはまる。 0.82
Although the guarantees for dn and(cid:102)dn are similar, empirically (cid:101)dn is much better, as explained below. dn と (cid:102)dn の保証は似ているが、実験的に (cid:101)dn の方がずっと良い。 0.75
Note that the ambient dimension D never enters the statistical complexity given above. 備考 環境次元 d は上述の統計複雑性に決して入らない。 0.63
While the exponential dependence on the intrinsic dimension d is unfortunate, it is likely necessary as described below. 内在次元 d に対する指数的依存は不運であるが、下記のように必要である。 0.59
While the reach, τ , determines the sample complexity of our dimension estimator, consideration of the injectivity radius, ι, is relevant for practical application. リーチ τ は我々の次元推定器のサンプル複雑性を決定するが、射出半径 ι は実用的応用に関係している。 0.64
Both geometric quantities are defined formally in the following section, but, to understand the intuition, note that there are two natural metrics we could いずれの幾何学的量も、次の節で正式に定義されるが、直観を理解するために、2つの自然な計量が存在することに注意せよ。
訳抜け防止モード: どちらの幾何量も、以下の節で正式に定義される。 しかし直観を理解するために 自然の測度は2つあり
0.66
2 (4) (5) 2 (4) (5) 0.85
英語(論文から抽出)日本語訳スコア
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
be placing on M = supp P. The first is to simply consider M equipped with the Euclidean metric induced by its imbedding in the ambient RD; the second is to consider the geodesic distance between points, i.e., the Euclidean length of the shortest curve between two points in M that lies entirely in M . ひとつは、周囲 RD への埋め込みによって誘導されるユークリッド計量を持つ M を単に考慮することであり、もう一つは、点間の測地距離、すなわち、完全に M に属する M の 2 つの点の間の最短曲線のユークリッド距離を考えることである。 0.78
The reach is, intuitively, the size of the largest ball with respect to the ambient metric such that we can treat points in M as if they were simply in Euclidean space; the injectivity radius is similar, except it treats neighborhoods with respect to the intrinsic metric. リーチ(英: reach)とは、直観的には、m の点を単にユークリッド空間にあったかのように扱うことができるような周囲距離に関する最大の球の大きさである。
訳抜け防止モード: リーチは直感的には、そのような周囲の計量に対する最大の球の大きさである。 M 内の点を単にユークリッド空間にあるかのように扱うことができる 射影半径は、固有の計量に関して近傍を扱う以外は類似している。
0.70
Considering that manifold distances are always at least as large as Euclidean distances, it is unsurprising that τ (cid:46) ι. 多様体距離は常にユークリッド距離と同じ大きさであることを考えると、τ (cid:46) ι が成り立つ。 0.74
Getting back to dimension estimation, specializing to the case of β = p = 1, and recalling Equation (3), there are now two choices for our dimension estimator: we could use Wasserstein distance with respect to the Euclidean metric or Wasserstein distance with respect 1 ). β = p = 1 の場合を専門とし、方程式 (3) を思い出すような次元推定に戻ると、次元推定器には2つの選択肢がある: ユークリッド計量に関してワッサーシュタイン距離(英語版)(wasserstein distance)を使うことができる。 0.76
We will see that if ι ≈ τ , then the two estimators to the intrinsic metric (which we will denote by W M induced by each of these distances behave similarly, but when ι (cid:29) τ , the latter is better. これらの距離によって誘導される w m によって表される)内在距離への2つの推定子も同様に振る舞うが、 ι (cid:29) τ の場合、後者の方が良い。 0.63
While we wish to use W M 1 -based estimator (cid:101)dn would only require (cid:16) ι−d samples. W M 1-based estimator (cid:101)dn は (cid:16) ι-d サンプルのみを必要とする。 0.82
n) to estimate the dimension, we do not know the intrinsic metric. n) 次元を推定するためには、本質的な計量を知らない。 0.75
As such, we use the kNN graph to approximate this intrinsic metric and introduce the measure W G n). そのため、この本質的計量を近似するために knn グラフを使用し、測度 w g n を導入する)。
訳抜け防止モード: したがって、kNNグラフを用いて本質的な計量を近似する。 そして測度 W G n ) を導入する。
0.76
Note that if we had practical advantage of (cid:101)dn in that the metric estimator can leverage all N = 2(1 + α)n available samples, so oracle access to geodesic distance dM , then the W M However, our kNN estimator of dM , unfortunately, still requires the τ−d samples. ただし、(cid:101)dn の実際的な利点は、計量推定器が利用可能なすべての n = 2(1 + α)n のサンプルを活用できるため、oracle は測地線距離 dm にアクセスすることができることである。
訳抜け防止モード: 距離推定器がすべての N = 2(1 + α)n 個のサンプルを活用できるという点で (cid:101)dn の実際的な利点がある。 したがって、オラクルは測地線距離dMにアクセスできる。 我々のdMのkNN推定器は、残念ながら、まだτ−dサンプルが必要である。
0.68
Nevertheless, there is a that (cid:101)dn works if N (cid:38) τ−d and only n (cid:38) ι−d, whereas for dn we require n (cid:38) τ−d itself. それでも N (cid:38) τ−d と n (cid:38) ι−d が成り立つが、dn に対して n (cid:38) τ−d 自体を必要とする。 0.82
A natural question: is this necessary? 自然な質問:これは必要か? 0.85
i.e., is ι (cid:29) τ on real datasets? つまり、実データセット上で ι (cid:29) τ は存在するか? 0.59
We believe that the answer is yes. 私たちは答えがイエスだと信じている。 0.49
To see this, consider the case of images of the digit 7 (for example) from MNIST LeCun & Cortes (2010). これを見るためには、MNIST LeCun & Cortes (2010) の桁 7 (例) の画像の場合を考える。 0.76
As a demonstration, we sample images from MNIST in datasets of size ranging in powers of 2 from 32 to 2048, calculate the Wasserstein distance between these two samples, and plot the resulting trend. 実演として、MNISTの画像を2から32から2048までの大きさのデータセットでサンプリングし、2つのサンプル間のワッサーシュタイン距離を計算し、その結果の傾向をプロットする。 0.79
In the right plot, we pool all of the data to estimate the manifold distances, and then use these estimated distances to compute the Wasserstein distance between the empirical distributions. 正しいプロットでは、すべてのデータをプールして多様体距離を推定し、次にこれらの推定距離を用いて経験的分布間のワッサーシュタイン距離を計算する。 0.83
In order to better compare these two approaches, we also plot the residuals to the linear fit that we expect in the asymptotic regime. これら2つのアプローチをよりよく比較するために、漸近的状態において期待される線形適合に残余をプロットする。 0.70
Looking at Figure 1, it is clear that we are not yet in the asymptotic regime if we simply use Euclidean distances; on the other hand, the trend using the manifold distances is much more clearly linear, suggesting that the slope of the best linear fit is meaningful. 図1を見れば、単にユークリッド距離を使うだけでは漸近的な状態にはならないことは明らかであり、一方、多様体距離を用いた傾向はより明確に線型であり、最良の線形適合の勾配が有意であることを示唆している。 0.77
Thus we see that in order to get a meaningful dimension estimate from practical data sets, we cannot simply use W1 but must also estimate the geometry of the underlying distribution; this suggests that ι (cid:29) τ on this data manifold. したがって、実践的なデータセットから有意な次元の推定を得るためには、W1を単純に使うことはできないが、基礎となる分布の幾何学も推定する必要がある。
訳抜け防止モード: 順番に見てみると 実用的なデータセットから有意義な次元推定を得る。 w1 は単に使用できないが、基盤となる分布の幾何を推定する必要がある。 このことは、このデータ多様体上の ι ( cid:29 ) τ を示唆する。
0.69
3 3 0.85
英語(論文から抽出)日本語訳スコア
Figure 1: Two log-log plots of comparing how W1(Pn, P (cid:48) n) decays as n gets larger, as well as the residuals from a linear fit. 図1: W1(Pn, P (cid:48) n) が n が大きくなるにつれてどのように崩壊するかを比較する2つのログプロットと、線形フィットからの残基を比較する。 0.72
The data are images of the digit 7 from MNIST with Wasserstein distances computed with the Sinkhorn algorithm Cuturi (2013). データは、Sinkhorn algorithm Cuturi (2013)で計算されたワッサースタイン距離を持つMNISTの桁7の画像である。 0.82
The manifold distances are approximated by a k-NN graph, as described in Section 3. 多様体距離は、セクション3で説明されているように、k-NNグラフによって近似される。 0.56
n) decays to how W M n) W M の程度に崩壊する 0.81
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
Our main contributions are as follows: • In Section 3, we introduce a new estimator of intrinsic dimension. 主な貢献は以下の通りである。 • 第3節では、本質的な次元の新しい推定器を導入する。 0.65
In Theorem 21 we prove nonasymptotic bounds on the quality of the introduced estimator. Theorem 21 では、導入した推定器の品質に関する漸近的境界を証明している。 0.60
To the best of our knowledge, this constitutes the first estimator of intrinsic dimension that comes equipped with non-asymptotic sample complexity bounds. 我々の知る限りでは、これは非漸近的なサンプル複雑性境界を備えた内在次元の最初の推定器を構成する。 0.73
Moreover, unlike the MLE estimator of Levina & Bickel (2004), no regularity condition on the density of the population distribution is required for our guarantees. さらに、levina & bickel (2004) の mle 推定値とは異なり、我々の保証には人口分布の密度に関する正規性条件は不要である。 0.76
• In the course of proving Theorem 21, we adapt the techniques of Bernstein et al (2000) to provide new, non-asymptotic bounds on the quality of kNN distance as an estimate of intrinsic distance in Proposition 22, with explicit sample complexity in terms of the reach of the underlying space. • Theorem 21 の証明の過程で,Bernstein et al (2000) の手法を応用し,KNN 距離の質に関する新しい漸近的境界を,基礎空間の到達度の観点から明示的なサンプル複雑性を伴う命題 22 における内在距離の推定値として与える。 0.86
To our knowledge, these are the first such non-asymptotic bounds. 我々の知る限り、これらは最初の非漸近的境界である。 0.68
We further note that the techniques we develop to prove the non-asymptotic bounds on our dimension estimator also serve to provide new statistical rates in learning Generative Adversarial Networks (GANs) with a Holder discriminator class: さらに、我々の次元推定器の非漸近的境界を証明するために開発した手法は、ホルダー判別器クラスを持つ生成逆ネットワーク(gans)の学習において、新しい統計率を提供するのに役立つことに注意する。
訳抜け防止モード: さらに、これらの技術は、 次元推定器の非漸近境界を証明するために開発します また、GAN(Generative Adversarial Networks)をホルダー識別器クラスで学習する際の新しい統計率も提供する。
0.72
• We prove in Theorem 23 that if(cid:98)µ is a Holder GAN, then the distance between(cid:98)µ and P, as measured by • Theorem 23 において、(cid:98)μ がホールダー GAN であれば、(cid:98)μ と P の間の距離が測定される。 0.87
the Holder IPM, is governed by rates dependent only on the intrinsic dimension of the data, independent of the ambient dimension or the dimension of the feature space. ホルダipmは、環境次元や特徴空間の次元とは無関係に、データの内在次元のみに依存するレートによって制御される。 0.63
In particular, we prove in great generality that if P has intrinsic dimension d, then the rate of a Wasserstein GAN is n− 1 d . 特に、P が内在次元 d であるなら、ワッサーシュタイン GAN の速度は n − 1 d であることを示す。
訳抜け防止モード: 特に私たちは 一般論として p が内在次元 d であれば、ワッサースタイン gan の速度は n− 1 d である。
0.61
This improves on the recent work of Schreuder et al (2020). これはschreuder et al (2020) の最近の業績を改善している。 0.70
The work is presented in the order of the above listed contributions, preceded by a brief section on the geometric preliminaries and prerequisite results. 上記の投稿の順に提示され、幾何学的前提項と前提条件の結果が先行している。
訳抜け防止モード: 以下に挙げた貢献の順に記載する。 幾何学的前提条件及び前提条件結果に関する短い節により先行する。
0.59
We conclude the introduction by fixing notation and surveying some related work. 注記の修正と関連する作業の調査によって,導入を結論付ける。 0.53
4 4 0.85
英語(論文から抽出)日本語訳スコア
Notation: We fix the following notation. 表記法: 以下の表記法を修正する。 0.54
We always let P be a probability distribution on RD and, whenever defined, we let d = dim supp P. We reserve X1, . 我々は常に P を RD 上の確率分布とし、定義されたときは常に d = dim supp P とする。 0.78
. . , Xn for samples taken from P and we denote by Pn their empirical distribution. . . P から採取した試料の Xn を Pn で表し,その実験分布を Pn で表した。 0.80
We reserve α for the smoothness of a Holder class, Ω ⊂ RD is always a bounded open domain, and ∆ is always the intrinsic diameter of a closed set. ホールダー級数の滑らかさに対して α を保留し、Ω > RD は必ず有界な開領域であり、 y は必ず閉集合の内在的直径である。 0.70
In general, we denote by S the support of a distribution P and we use M = supp P if we restrict ourselves to the case where S = M is a compact manifold, with Riemannian metric induced by the Euclidean metric. 一般に、分布 P のサポートを S で表し、S = M がコンパクト多様体であれば M = supp P を使い、ユークリッド計量によってリーマン計量が誘導される。 0.61
We denote by vol M the volume of the manifold with respect to its inherited metric and we reserve ωd for the volume of the unit ball in Rd. 我々は、Vol M によって、その継承された計量に関する多様体の体積を表し、Rd 内の単位球の体積に対して ωd を予約する。 0.70
1.1 Related Work Dimension Estimation There is a long history of dimension estimation, beginning with linear methods such as thresholding principal components Fukunaga & Olsen (1971), regressing k-Nearest-Neighbors (kNN) distances Pettis et al (1979), estimating packing numbers K´egl (2002); Grassberger & Procaccia (2004); Camastra & Vinciarelli (2002), an estimator based solely on neighborhood (but not metric) information that was recently proven consistent Kleindessner & Luxburg (2015), and many others. 1.1 関連作業 次元推定 (dimension Estimation) 次元推定には長い歴史があり、例えばしきい値成分である福永 & Olsen (1971), regressing k-Nearest-Neighbors (kNN) distances Pettis et al (1979), 推定パッキング数 K ́egl (2002), Grassberger & Procaccia (2004), Camastra & Vinciarelli (2002), 近辺(ただし計量ではない)情報のみに基づく推定器 Kleindessner & Luxburg (2015) などが挙げられる。 0.74
An exhaustive recent survey on the history of these techniques can be found in Camastra & Staiano (2016). これらの技術の歴史に関する最近の徹底的な調査は、Camastra & Staiano (2016)で見ることができる。 0.74
Perhaps the most popular choice among current practitioners is the MLE estimator of Levina & Bickel (2004), which is also unique among such estimators in that it has been shown to be asymptotically consistent. おそらく現在の実践者の間で最も人気のある選択は、レヴィナ・アンド・ビッケルのmle推定者(2004年)である。
訳抜け防止モード: おそらく、現在の実践者の間で最も人気のある選択は、レヴィナ&ビッケルのMLE推定器である(2004年)。 漸近的に一貫性があることが示されています
0.59
worked out in Levina & Bickel (2004), a local estimate of dimension for k ≥ 2 and x ∈ RD is given by Levina & Bickel (2004) において、 k ≥ 2 と x ∈ RD の局所的な次元推定が与えられる。 0.75
The MLE estimator is constructed as the maximum likelihood of a parameterized Poisson process. MLE推定器はパラメータ化ポアソン過程の最大値として構成される。 0.75
As (cid:98)mk(x) = として (cid:98)mk(x) = 0.72
 1 k − 1  1 k − 1 0.85
k(cid:88) j=1 k(cid:88) j=1 0.71
−1 log Tk(x) Tj(x) −1 ログ Tk(x) Tj(x) 0.72
(6) where Tj(x) is the distance between x and its jth nearest neighbor in the data set. (6) ここで、tj(x) はデータセット内の x と最も近い j との間の距離である。 0.82
The final estimate for fixed k is given by averaging (cid:98)mk over the data points in order to reduce variance. 最後の見積もりは 固定 k は分散を減らすためにデータ点上の平均 (cid:98)mk によって与えられる。 0.71
While not included in the on a ball of radius R in Rd, then E(cid:104) d ; the local estimator (cid:98)mk(x) is the empirical version under Rd の半径 R の球には含まれないが、E(cid:104) d ; 局所推定器 (cid:98)mk(x) は以下の経験的バージョンである。 0.81
original paper, a similar motivation for such an estimator could be noting that if X is uniformly distributed 元の論文では、そのような推定器の同様の動機は、Xが一様分布であるなら、 0.67
log R||X|| log R||X|| 0.44
= 1 (cid:105) = 1 (cid:105) 0.82
the assumption that the density is smooth enough to be approximately constant on this small ball. 密度がこの小さなボール上でほぼ一定となるほど滑らかであるという仮定。 0.76
Manifold Learning The notion of reach was first introduced in Federer (1959), and subsequently used in the machine learning and computational geometry communities in such works as Niyogi et al (2008, 2011); Aamari et al (2019); Amenta & Bern (1999); Fefferman et al (2016, 2018); Narayanan & Mitter (2010); Efimov et al (2019); Boissonnat et al (2019). Manifold Learning The concept of reach was first introduced in Federer (1959), and then in the machine learning and computational geometry community in such works as Niyogi et al (2008, 2011), Aamari et al (2019), Amenta & Bern (1999), Fefferman et al (2016, 2018), Narayanan & Mitter (2010), Efimov et al (2019), Boissonnat et al (2019)。 0.70
Perhaps most relevant to our work, Narayanan & Mitter (2010); Fefferman et al (2016) consider the problem of testing membership in a class of manifolds of large reach and derive tight bounds on the sample complexity of this question. narayanan & mitter (2010), fefferman et al (2016) は、大きなリーチを持つ多様体のクラスにおけるメンバーシップのテストの問題を検討し、この質問のサンプル複雑性の厳密な境界を引き出す。 0.57
Our work does not fall into the purview of their conclusions as we assume that the geometry of the underlying manifold is nice and estimate the intrinsic dimension. 我々の研究は、基礎多様体の幾何学が良いと仮定し、本質的な次元を推定するので、それらの結論のパービューに該当しない。
訳抜け防止モード: 私たちの仕事は、彼らの結論の見地から落ちてはいない。 基底多様体の幾何学が良いと仮定し 内在次元を推定する。
0.68
In the course of proving bounds on our dimension estimator, we must estimate the intrinsic metric of the data. 次元推定器の境界を証明する過程で、私たちはデータの本質的なメトリックを見積もらなければなりません。 0.65
We adapt the proofs of Tenenbaum et al (2000); Bernstein et al (2000); Niyogi et al (2008) and provide tight bounds on the quality of a k-Nearest Neighbors (kNN) approximation of the intrinsic distance. 我々は、Tenenbaum et al (2000)、Bernstein et al (2000)、Niyogi et al (2008) の証明に適応し、k-Nearest Neighbors (kNN) の固有距離の近似に関する厳密な境界を提供する。 0.73
Statistical Rates of GANs Since the introduction of Generative Adversarial Networks (GANs) in Goodfellow et al (2014), there has been a plethora of empirical improvements and theoretical analyses. GANの統計率 Goodfellow et al (2014)にGAN(Generative Adversarial Networks)が導入されて以来、実証的な改善と理論的分析が数多く行われている。 0.75
Recall that the basic GAN problem selects an estimated distribution (cid:98)µ from a class of distributions P minimizing some adversarially learned distance between (cid:98)µ and the empirical distribution Pn. 回想 基本的な GAN 問題は (cid:98)μ と経験分布 Pn の間の逆学習距離を最小化する分布 P のクラスから推定分布 (cid:98)μ を選択する。 0.64
Theoretical analyses aim to control the distance between the learned distribution (cid:98)µ and the population distribution P from which 理論的解析は、学習分布(cid:98)μと人口分布pとの間の距離を制御することを目的としている。 0.70
the data comprising Pn are sampled. Pnからなるデータをサンプリングする。 0.66
In particular statistical rates for a number of interesting discriminator classes have been proven including Besov balls Uppal et al (2019), balls in an RKHS Liang (2018), and neural network classes Chen et al (2020) among others. 特に、Besov balls Uppal et al (2019), balls in an RKHS Liang (2018), Neural Network class Chen et al (2020) など、多くの興味深い識別学クラスの統計が証明されている。 0.66
The latter paper Chen et al (2020) also considers GANs where the discriminative class is a Holder ball, which includes the popular Wasserstein GAN framework of 後者の論文 Chen et al (2020) は、差別クラスがホールダー球であるような GAN についても考察している。 0.61
5 5 0.85
英語(論文から抽出)日本語訳スコア
Arjovsky et al (2017). Arjovsky et al (2017)。 0.83
They show that if (cid:98)µ is the empirical minimizer of the GAN loss and the population 彼らは(cid:98)μ が GAN 損失と人口の実証最小値であることを示す。 0.74
distribution P (cid:28) LebRD then distribution P (cid:28) LebRD 0.87
up to factors polynomial in log n. Thus, in order to beat the curse of dimensionality, one requires α = Ω(D); note that the larger α is, the weaker the IPM is as the Holder ball becomes smaller. したがって、次元の呪いを打ち負かすためには α = Ω(D) が必要である; より大きな α がより大きいほど、IPM はホールダー球が小さくなるにつれて弱くなることに注意する。 0.64
In order to mitigate this slow rate, Schreuder et al (2020) assume that both P and P are distributions arising from Lipschitz pushforwards of the uniform distribution on a d-dimensional hypercube; in this setting, they are able to remove dependence on D and show that この遅い速度を緩和するために、schreuder et al (2020) は、p と p は、d-次元超キューブ上の一様分布のリプシッツプッシュフォワードから生じる分布であると仮定している。
訳抜け防止モード: この遅い速度を緩和するために、schreuder et al (2020) は、p と p は、d-次元超立方体上の一様分布のリプシッツプッシュフォワードから生じる分布であると仮定している。 彼らはdへの依存を取り除き
0.79
E [dα((cid:98)µ, P)] (cid:46) n− α E [dα((cid:98)μ, P)] (cid:46) n− α 0.92
2α+D E [dα((cid:98)µ, P)] (cid:46) Ln− α 2α+D E [dα((cid:98)μ, P)] (cid:46) Ln− α 0.70
d ∨ n− 1 2 d = n − 1 2 0.78
(7) (8) This last result beats the curse of dimensionality, but pays with restrictive assumptions on the generative model as well as dependence on the Lipschitz constant of the pushforward map. (7) (8) この最後の結果は次元性の呪いを破るが、生成モデルに対する制限的な仮定と、プッシュフォワード写像のリプシッツ定数への依存に従う。 0.76
More importantly, the result depends exponentially not on the intrinsic dimension of P but rather on the dimension of the feature space used to represent P. In practice, state-of-the-art GANs used to produce images often choose d to be on the order of 128, which is much too large for the Schreuder et al (2020) result to guarantee good performance. さらに重要なのは、結果が指数関数的に P の本質的な次元ではなく、P を表すために使われる特徴空間の次元に依存することである。
訳抜け防止モード: さらに重要なことに、結果は指数関数的に P の内在次元に依存しない。 むしろ、Pを表すために使われる特徴空間の次元についてです。 画像を生成するために使用されるアートガンは、しばしばdを128の順に選ぶ。 Schreuder et al (2020 )の結果、パフォーマンスの保証には大きすぎる。
0.70
2 Preliminaries 2.1 Geometry In this work, we are primarily concerned with the case of compact manifolds isometrically imbedded in some large ambient space, RD. 予科2 2.1幾何 この研究では主に、ある大きな周囲空間 RD に等尺的に埋め込まれたコンパクト多様体の場合に関係している。 0.58
We note that this focus is largely in order to maintain simplicity of notation and exposition; extensions to more complicated, less regular sets with intrinsic dimension defined as the Minkowski dimension can easily be attained with our techniques. ミンコフスキー次元として定義される内在次元を持つより複雑でより正規な集合への拡張は、我々の手法で容易に達成できる。
訳抜け防止モード: この焦点は概ね整っていることに気付きます 表記や表現の単純さを維持する ; 内在次元が定義されたより複雑でより正規な集合への拡張 ミンコフスキー次元は我々の手法で容易に達成できる。
0.74
The key example to keep in mind is that of image data, where each pixel corresponds to a dimension in the ambient space, but, in reality, the distribution lives on a much smaller, imbedded subspace. 念頭に置いておくべき重要な例は、各ピクセルが周囲の空間の次元に対応する画像データであるが、実際には、分布はより小さく、埋め込みされた部分空間上に存在する。 0.77
Many of our results can be easily extended to the non-compact case with additional assumptions on the geometry of the space and tails of the distribution of interest. 我々の結果の多くは、興味の分布の空間とテールの幾何学に関する追加の仮定により、非コンパクトの場合に容易に拡張できる。 0.73
Central to our study is the analysis of how complex the support of a distribution is. 我々の研究の中心は、分布の支持がいかに複雑であるかを分析することである。 0.75
We measure complexity of a metric space by its entropy: 測定する エントロピーによる計量空間の複雑さ 0.63
Definition 2. Let (X, d) be a metric space. 定義2。 X, d) を計量空間とする。 0.66
The covering number at scale ε > 0, N (X, d, ε), is the minimal number s such that there exist points x1, . スケール ε > 0, N (X, d, ε) の被覆数は、点 x1, が存在するような最小数 s である。 0.72
. . , xs such that X is contained in the union of balls of radius ε centred at the xi. . . x が xi を中心とする半径 ε の球の結合に含まれるような xs である。 0.83
The packing number at scale ε > 0, D(X, d, ε), is the maximal number s such that there exist points x1, . スケール ε > 0, D(X, d, ε) におけるパッキング数は、点 x1, が存在するような極大数 s である。 0.76
. . , xs ∈ X such that d(xi, xj) > ε for all i (cid:54)= j. . . すべての i (cid:54) = j に対して d(xi, xj) > ε となるような xs ∈ X である。 0.83
The entropy is defined as log N (X, d, ε). エントロピーは log N (X, d, ε) と定義される。 0.77
We recall the classical packing-covering duality, proved, for example, in (van Handel, 2014, Lemma 5.12): 我々は古典的なパッキング被覆双対性を思い出し、例えば(van handel, 2014 lemma 5.12) で証明した。 0.67
Lemma 3. For any metric space X and scale ε > 0, 第3弾。 任意の距離空間 x とスケール ε > 0 に対して 0.68
D(X, d, 2ε) ≤ N (X, d, ε) ≤ D(X, d, ε) D(X, d, 2ε) ≤ N(X, d, ε) ≤ D(X, d, ε) 0.88
(9) The most important geometric quantity that determines the complexity of a problem is the dimension of the support of the population distribution. (9) 問題の複雑さを決定する最も重要な幾何学的量とは、人口分布の支援の次元である。 0.84
There are many, often equivalent ways to define this quantity in general. 一般にこの量を定義するには、多くの等価な方法がある。 0.65
One possibility, introduced in Assouad (1983) and subsequently used in Dasgupta & Freund (2008); Kpotufe & Dasgupta (2012); Kpotufe & Garg (2013) is that of doubling dimension: Definition 4. assouad (1983) で導入され、その後 dasgupta & freund (2008), kpotufe & dasgupta (2012), kpotufe & garg (2013) で使われる可能性の一つは二重次元の定義である。 0.83
Let S ⊂ RD be a closed set. S = RD を閉集合とする。 0.63
For x ∈ S, the doubling dimension at x is the smallest d such that for all r > 0, the set Br(x)∩ S can be covered by 2d balls of radius r 2 , where Br(x) denotes the Euclidean ball of radius r centred at x. x ∈ s に対して、x の二重次元は、すべての r > 0 に対して集合 br(x) s が半径 r 2 の 2d 球で被覆できる最小の d であり、ここで br(x) は x を中心とする半径 r のユークリッド球を表す。 0.84
The doubling dimension of S is the supremum of the doubling dimension at x for all x ∈ S. S の倍次元は、すべての x ∈ S に対して x における倍次元の上限である。 0.81
This notion of dimension plays well with the entropy, as demonstrated by the following (Kpotufe & この次元の概念は、次のようなエントロピーとよく一致する(Kpotufe &)。 0.68
Dasgupta, 2012, Lemma 6): Dasgupta, 2012, Lemma 6)。 0.75
6 6 0.85
英語(論文から抽出)日本語訳スコア
Lemma 5 (Kpotufe & Dasgupta (2012)). Lemma 5 (Kpotufe & Dasgupta) 2012年。 0.64
Let S have doubling dimension d and diameter ∆. S の次元は d と s の 2 倍とする。 0.63
Then N (S, ε) ≤ すると N (S, ε) ≤ 0.90
(cid:0) ∆ (cid:1)d (cid:0)。 (cid:1)d 0.75
. ε We remark that a similar notion of dimension is that of the Minkowski dimension, which is defined as the asymptotic rate of growth of the entropy as the scale tends to zero. . ε 同様の次元の概念はミンコフスキー次元のそれであり、これはスケールがゼロになるにつれてエントロピーの成長の漸近的速度として定義される。 0.80
Recently, Nakada & Imaizumi (2020) has examined the effect that an assumption of small Minkowski dimension has on learning with neural networks; we recover their central statistical result as an immediate consequence of our complexity bounds below. 近年,中田と今泉(2020)は,ミンコフスキー次元の小さな仮定がニューラルネットワークを用いた学習に与える影響について検討した。
訳抜け防止モード: 最近,中田と今泉(2020)は,その効果を検証している。 ニューラルネットワークを用いた学習におけるミンコフスキー次元の仮定 ; 複雑性境界の直近の結果として, 中央統計結果を復元する。
0.69
In order to develop non-asymptotic bounds, we need some understanding of the geometry of the support, 非漸近的境界を開発するには、支持体の幾何学をある程度理解する必要がある。 0.65
M . We first recall the definition of the geodesic distance: Definition 6. M。 最初に測地線距離の定義を思い出す:定義6。 0.71
Let S ⊂ RD be closed. S を RD を閉とする。 0.80
A piecewise smooth curve in S, γ, is a continuous function γ : I → S, where I ⊂ R is an interval, such that there exists a partition I1,··· , IJ of I such that γIj is smooth as a function to RD. S, γ の断片的滑らかな曲線は連続函数 γ : I → S であり、I > R は区間であり、I の分割 I1,··· , IJ が存在して γIj が RD の函数として滑らかである。
訳抜け防止モード: S の個々に滑らかな曲線 γ は連続函数 γ : I → S である。 I > R が区間であるような場合 分割 I1, · が存在する。 ··, I の IJ がそうである。 γIj は RD の関数として滑らかである。
0.90
The length of γ is induced by the imbedding of S ⊂ RD. γ の長さは S > RD の埋め込みによって誘導される。 0.79
For points p, q ∈ S, the intrinsic (or geodesic) distance is 点 p, q ∈ s に対して、内在距離(または測地線距離)は 0.67
dS(p, q) = inf {length (γ)|γ(0) = p and γ(1) = q and γ is a piecewise smooth curve in S} ds(p, q) = inf {length (γ)|γ(0) = p と γ(1) = q と γ は s} の分割滑らかな曲線である。 0.87
(10) It is clear from the fact that straight lines are geodesics in RD that for any points p, q ∈ S, ||p − q|| ≤ (10)直線がRDの測地線であるという事実から、任意の点 p, q ∈ S, ||p − q|| ≤ について明らかである。
訳抜け防止モード: (10)任意の点 p に対して直線が RD の測地線であるという事実から明らかである。 q ∈ S , ||p − q|| ≤
0.82
dS(p, q). We are concerned with two relevant geometric quantities, one extrinsic and the other intrinsic. dS(p, q)。 我々は2つの関連する幾何学的量に関心がある。 0.65
Definition 7. Let S ⊂ RD be a closed set. 定義7。 S = RD を閉集合とする。 0.68
Let the medial axis Med(S) be defined as 媒介軸 Med(S) を定義させる。 0.70
Med(S) =(cid:8)x ∈ RD| there exist p (cid:54)= q ∈ S such that ||p − x|| = ||q − x|| = d(x, S)(cid:9) med(s) =(cid:8)x ∈ rd| p (cid:54)= q ∈ s が存在して ||p − x|| = ||q − x|| = d(x, s)(cid:9) となる。 0.77
(11) In other words, the medial axis is the closure of the set of points in RD that have at least two projections to S. Define the reach, τS of S as d(S, Med(S)), the minimal distance between a set and its medial axis. 十一 言い換えれば、媒介軸は少なくとも二つのSへの射影を持つRD内の点の集合の閉包であり、S のリーチ τS を d(S, Med(S)) として定義し、集合と媒介軸の間の最小距離を定める。 0.81
If S = M is a compact manifold with the induced Euclidean metric, we define the injectivity radius ι = ιM as the maximal r such that if p, q ∈ M such that dM (p, q) < r then there exists a unique length-minimizing geodesic connecting p to q in M . S = M が誘導ユークリッド計量を持つコンパクト多様体であれば、単射半径 ι = ιM を最大 r として定義し、p, q ∈ M が dM (p, q) < r であるならば、M において p と q への一意な長さ最小化測地線接続が存在する。 0.79
For more detail on the injectivity radius, see Lee (2013), especially Chapters 6 and 10. 射影半径の詳細についてはLee (2013)、特に6章と10章を参照。 0.69
The difference between ιM and τM is in the choice of metric with which we equip M . ιM と τM の違いは、M を装備する計量の選択にある。 0.72
We could choose to equip M with the metric induced by the Euclidean distance ||·|| or we could choose to use the intrinsic metric dM defined above. M にユークリッド距離 ||·|| で誘導される距離を与えるか、あるいは上記の内在計量 dM を選択できる。 0.60
The reach quantifies the maximal radius of a ball with respect to the Euclidean distance such that the intersection of this ball with M behaves roughly like Euclidean space. リーチはユークリッド距離に関して球の最大半径を定量化し、この球とMとの交叉は概してユークリッド空間のように振る舞う。 0.59
The injectivity radius, meanwhile, quantifies the maximal radius of a ball with respect to the intrinsic distance such that this ball looks like Euclidean space. 一方、射影半径は、この球がユークリッド空間のように見えるような内在距離に関して、球の最大半径を定量化する。 0.73
While neither quantity is necessary for our dimension estimator, both figure heavily in the analysis. 次元推定には量は必要ありませんが、どちらも分析に深く関わっています。 0.65
The final relevant geometric quantity is the sectional curvature. 最後の関連する幾何量は断面曲率である。 0.72
The sectional curvature of M at a point p ∈ M given two directions tangent to M at p is given by the Gaussian curvature at p of the image of the exponential map applied to a small neighborhood of the origin in the plane determined by the two directions. p において M に接する 2 つの方向の点 p ∈ M における M の断面曲率は、その 2 つの方向によって決定される平面の原点の小さな近傍に適用される指数写像の像の p におけるガウス曲率によって与えられる。 0.84
Intuitively, the sectional curvature measures how tightly wound the manifold is locally around each point. 直感的には、断面曲率(英語版)は多様体が各点の周囲にどのように密着するかを測定する。
訳抜け防止モード: 直観的には 断面曲率は 多様体は各点の周りに局所的に存在する。
0.60
For an excellent exposition on the topic, see (Lee, 2013, Chapter 8). このトピックに関する優れた説明は(lee, 2013 chapter 8)を参照してください。 0.68
We now specialize to consider compact, dimension d manifolds M imbedded in RD with the induced metric (see Lee (2013) for an accessible introduction to the geometric notions discussed here). 現在我々は、RD に埋め込まれたコンパクトな次元 d 多様体 M と誘導計量を考えることを専門化している(ここで議論される幾何学的概念へのアクセス可能な導入について Lee (2013) を参照)。 0.64
The reach of a manifold encodes a number of local and global geometric properties. 多様体のリーチは、多くの局所的および大域的幾何学的性質を符号化する。 0.53
We summarize several of these in the following proposition: Proposition 8. これらのいくつかを以下の命題で要約する。 0.49
Let M ⊂ RD be a compact manifold isometrically imbedded in RD. M, RD をコンパクト多様体とし、RD に等尺的に埋め込まれる。 0.64
Suppose that τ = τM > 0. τ = τM > 0 とする。 0.86
The following hold: ホールドは以下の通り。 0.54
(a) (Niyogi et al , 2008, Proposition 6.1)] The norm of the second fundamental form of M is bounded by 1 τ (a) (niyogi et al , 2008 proposition 6.1)) m の第二基本形式のノルムは 1 τ で有界である 0.78
at all points p ∈ M . すべての点で p ∈ M である。 0.70
(b) (Aamari et al , 2019, Proposition A.1 (ii)) The injectivity radius of M is at least πτ . (b) (Aamari et al , 2019, Proposition A.1 (ii)) M の射影半径は少なくとも πτ である。 0.81
(c) (Boissonnat et al , 2019, Lemma 3) If p, q ∈ M such that ||p − q|| ≤ 2τ then dM (p, q) ≤ 2τ arcsin (c) (Boissonnat et al , 2019, Lemma 3) p, q ∈ M が ||p − q|| ≤ 2τ であれば、dM (p, q) ≤ 2τ arcsin である。 0.90
7 (cid:16)||p−q|| 7 (cid:16)||p−q|| 0.65
(cid:17) 2τ (cid:17) 2τ 0.78
. . 0.85
英語(論文から抽出)日本語訳スコア
Figure 2: Curve in R2 where τ (cid:28) ι. 図2: r2 の曲線 τ (cid:28) ι。 0.77
A few remarks are in order. いくつかの発言が整っている。 0.59
First, note that (b) from Proposition 8 guarantees that M is complete, which is fortuitous as completeness is a necessary, technical requirement for several of our arguments. まず、(b) が命題 8 から M が完備であることを保証することに注意し、完全性はいくつかの議論の技術的要件である。 0.71
Second, we note that (c) has a simple geometric interpretation: the upper bound on the right hand side is the length of the arc of a circle of radius τ containing points p, q; thus, the maximal distortion of the intrinsic metric with respect to the ambient metric is bounded by the circle of radius τ . 第二に、(c) は単純な幾何学的解釈を持ち、右辺の上界は点 p, q を含む半径 τ の円の弧の長さであり、したがって、内在計量の周囲計量に対する最大歪みは半径 τ の円で有界である。 0.62
Point (a) in the above proposition demonstrates that control of the reach leads to control of local distortion. 上記の命題における点 (a) は、リーチの制御が局所歪みの制御につながることを示す。 0.73
From the definition, it is obvious that the reach provides an upper bound for the size of the global notion of a “bottleneck,” i.e., two points p, q ∈ M such that ||p − q|| = 2τ < dM (p, q). 定義から、リーチは「ボトルネック(bottleneck)」という大域的な概念、すなわち ||p − q|| = 2τ < dm (p, q) となる二つの点 p, q ∈ m の大きさの上限となることは明らかである。 0.78
Interestingly, these two local and global notions of distortion are the only ways that the reach of a manifold can be small, as (Aamari et al , 2019, Theorem 3.4) tells us that if the reach of a manifold M is τ , then either there exists a bottleneck of size 2τ or the norm of the second fundamental form is 1 τ at some point. 興味深いことに、これらの2つの局所的および大域的歪みの概念は、多様体のリーチが小さいことができる唯一の方法であり(aamari et al , 2019, theorem 3.4)、多様体 m のリーチが τ であれば、大きさ 2τ のボトルネックが存在するか、2番目の基本形式のノルムが ある時点で 1 τ である。 0.73
Thus, in some sense, the reach is the “correct” measure of distortion. したがって、ある意味では、リーチは歪みの「正しい」尺度である。 0.58
Note that while (b) above tells us that ιM (cid:38) τM , there is no comparable upper bound. 上述の (b) は ιM (cid:38) τM であるが、同値な上界は存在しない。 0.75
To see this, consider Figure 2, which depicts a one-dimensional manifold imbedded in R2. これを見るために、図2は R2 に埋め込まれた一次元多様体を描いている。 0.57
Note that the bottleneck in the center ensures that the reach of this manifold is very small; on the other hand, it is easy to see that the injectivity radius is given by half the length of the entire curve. 中心のボトルネックは、この多様体の到達範囲が非常に小さいことを保証することに注意し、一方、射出半径が曲線全体の半分の長さで与えられることは容易に分かる。 0.69
As the curve can be extended arbitrarily, the reach can be arbitrarily small relative to the injectivity radius. 曲線は任意に拡張できるので、射影半径に対してリーチは任意に小さくすることができる。 0.65
We now proceed to bound the covering number of a compact manifold using the dimension and the injectivity radius. 現在、次元と射影半径を用いてコンパクト多様体の被覆数を有界化している。 0.60
We note that upper bounds on the covering number with respect to the ambient metric were provided in Niyogi et al (2008); Narayanan & Mitter (2010). また,2008年(平成20年)にNarayanan & Mitter(2010年)において,周囲計量に関する被覆数の上界が提供された。 0.64
Proposition 9. Let M ⊂ RD be an isometrically imbedded, compact submanifold with injectivity radius ι > 0 such that the sectional curvatures are bounded above by κ1 ≥ 0 and below by κ2 ≤ 0. 命題9。 M > RD を射影半径 ι > 0 の等長埋め込みコンパクト部分多様体とし、断面曲率を κ1 ≥ 0 で上界とし、かつ κ2 ≤ 0 で下界とする。 0.64
If ε < π ∧ ι √ then ε < π {\displaystyle ε<π }}\ ι \,} である。 0.47
k1 2 N (M, dM , ε) ≤ vol M ωd k1 2 N (M, dM , ε) ≤ vol M ωd 0.85
d ε−d (cid:16) π d ε−d (cid:16)π 0.74
(cid:17)d 2 (cid:17)d 2 0.85
(12) (13) (14) (12) (13) (14) 0.85
(15) (cid:16) π (15) (cid:16)π 0.81
(cid:17)d 2 (cid:17)d 2 0.85
ε−d If ε < 1√−κ2 ε−d ε < 1\-κ2 の場合 0.57
∧ ι then Moreover, for all ε < ι, はあ? さらに、すべてのε < ι に対して。 0.47
vol M ωd d8−dε−d ≤ D(M, dM , 2ε) vol M ωd d8−dε−d ≤ D(M, dM, 2ε) 0.78
vol M ωd dιd(−κ2) vol M ωd dιd(−κ2) 0.76
d 2 e−dι √−κ2 ε−d ≤ D(M, dM , ε) d 2e−dι ε−κ2 ε−d ≤ d(m, dm , ε) 0.70
Thus, if ε < τ , where τ is the reach of M , then したがって、ε < τ , ここで τ が m の到達点であるなら、 0.84
vol M ωd d8−dε−d ≤ D(M, dM , 2ε) ≤ N (M, dM , ε) ≤ vol M ωd vol M ωd d8−dε−d ≤ D(M, dM , 2ε) ≤ N (M, dM , ε) ≤ vol M ωd 0.84
d The proof of Proposition 9 can be found in Appendix A and relies on the Bishop-Gromov comparison theorem to leverage the curvature bounds from Proposition 8 into volume estimates for small intrinsic balls, a similar technique as found in Niyogi et al (2008); Narayanan & Mitter (2010). d 命題 9 の証明は Appendix A で見ることができ、命題 8 からの曲率境界を小さな固有球の体積推定に活用するためにビショップ・グロモフ比較定理(英語版)(Bishop-Gromov comparison theorem)に依存している。
訳抜け防止モード: d 命題9の証明は Appendix A にある。 そして、命題8からの曲率境界を小さな固有球の体積推定に活用するためにビショップ・グロモフ比較定理に依存する。 同じようなテクニックです Niyogi et al (2008 ), Narayanan & Mitter (2010 )で発見された。
0.77
The key point to note is that we have both upper and lower bounds for ε < ι, as opposed to just the upper bound guaranteed by Lemma 5. 注意すべき点は、 ε < ι に対して上界と下界の両方を持ち、補題 5 によって保証される上界とは対照的である。
訳抜け防止モード: 注意すべき点は、ε < ι に対して上界と下界の両方を持つことである。 Lemma 5で保証される上限だけとは対照的に。
0.73
As a corollary, we are also able to derive bounds for the covering number with respect to the ambient metric: 座標系として、周囲の計量に関して被覆数の境界を導出することもできる。
訳抜け防止モード: まとめとして、私たちはまた 周囲の計量に関して被覆数の境界を導出する
0.56
8 8 0.85
英語(論文から抽出)日本語訳スコア
Corollary 10. Let M be as in Proposition 9. 定員10名。 M を命題 9 とする。 0.55
For ε < τ , we can control the covering numbers of M with respect to the Euclidean metric as ε < τ に対して、ユークリッド計量に関して M の被覆数を制御することができる。 0.73
vol M ωd d16−dε−d ≤ D(M,||·|| , 2ε) ≤ N (M,||·|| , ε) ≤ vol M ωd vol M ωd d16−dε−d ≤ D(M,||·|| , 2ε) ≤ N (M,||·|| , ε) ≤ vol M ωd 0.86
ε−d (16) The proof of Corollary 10 follows from Proposition 9 and the metric comparisons for small scales in ε−d (16) コローナリー10の証明は、命題9と小規模の計量比較から従う。 0.68
Proposition 8; details can be found in Appendix A. Proposition 8; 詳細はAppendix Aで確認できる。 0.71
2.2 Holder Classes and their Complexity 2.2 ホルダークラスとその複雑さ 0.70
In this section we make the simple observation that complex function classes restricted to simple subsets can be much simpler than the original class. この節では、単純部分集合に制限された複素関数クラスが元のクラスよりもはるかに単純であることを示す。 0.73
While such intuition has certainly appeared before, especially in designing esimators that can adapt to local intrinsic dimension, such as Bickel et al (2007); Kpotufe & Dasgupta (2012); Kpotufe (2011); Kpotufe & Garg (2013); Dasgupta & Freund (2008); Steinwart et al (2009); Nakada & Imaizumi (2020), we codify this approach below. このような直観は、特にbickel et al (2007), kpotufe & dasgupta (2012), kpotufe (2011), kpotufe & garg (2013), dasgupta & freund (2008), steinwart et al (2009), nakada & imaizumi (2020) のような局所的な内在的な次元に適応できるエシメータの設計において、以前にもありました。 0.73
To illustrate the above phenomenon at the level of empirical processes, we focus on Holder functions in RD for some large D and let the “simple” subset be a subspace of dimension d where d (cid:28) D. We first recall the definition of a Holder class: Definition 11. 上記の現象を経験過程のレベルで説明するために、ある大きな D に対して RD のホールダー関数に焦点をあて、「単純」部分集合を d (cid:28) D の次元 d の部分空間とする。
訳抜け防止モード: 経験的過程のレベルで上記の現象を説明する。 rd における大きな d に対するホルダー関数に注目します そして、「単純」部分集合を次元 d の部分空間とし、d ( cid:28 ) d とすると、まずホルダークラスの定義を思い出す。
0.71
For an open domain Ω ⊂ Rd and a function f : Ω → R, define the α-H¨older norm as 開領域 Ω の Rd と函数 f : Ω → R に対して、α-H のノルムをノルムとして定義する。
訳抜け防止モード: 開領域 Ω > Rd と函数 f : Ω → R に対して、 α - H solder ノルムを定義
0.80
(cid:16) π (cid:17)d (cid:16)π (cid:17)d 0.81
2 (cid:12)(cid:12)D(ci d:98)α(cid:99)f (x) − D(cid:98)α(cid:99)f (y)(cid:12)(cid:12) 2 (cid:12)(cid:12)D(ci d:98)α(cid:99)f(x) − D(cid:98)α(cid:99)f(y)(cid:12) (cid:12) 0.84
||x − y||α−(cid:98)α(cid:99) |x − y|α−(cid:98)α(cid:99) 0.67
(17) B(Ω), as the set of functions f : Ω → R such that ||f||Cα(Ω) ≤ Define the Holder ball of radius B, denoted by C α B. (17) B(Ω) を ||f||Cα(Ω) ≤ とする函数 f : Ω → R の集合として、半径 B のホールダー球を定義する。 0.83
If (M, g) is a Riemannian manifold, and f : M → R we define the Holder norm analogously, replacing M, g) がリーマン多様体であれば、f : M → R はホルダーノルムを類似的に定義し、置き換える。 0.75
||f||Cα(Ω) = max ||f||Cα(Ω) = max 0.63
(cid:12)(cid:12)Dβf (x)(cid:12)(cid:12) ∨ sup (cid:12)(cid:12)Dβf (x)(cid:12)(cid:12) with(cid:12)(cid:12) (cid:12)(cid:12)∇βf (x)(cid:12)(cid:12)( cid:12)(cid:12)g, where ∇ is the covariant derivative. (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12) with (cid:12)(cid:12)(cid :12)(cid:12)(cid:12) (cid:12)(cid:12)(cid :12)g。 0.74
(cid:18) B the entropy of a Holder ball scales as (cid:18)b ホールダーボールのエントロピーはスケールする 0.66
0≤|β|≤|α| sup x∈Ω 0≤|β|≤|α|sup xinftyΩ 0.45
x,y∈Ω log N (C α x,yhtmlω log n (c α ) 0.73
B(Ω),||·||∞ , ε) (cid:16) B(Ω),|||||∞ , ε) (cid:16) 0.85
(cid:19) D α (cid:19)d α 0.82
It is a classical result of Kolmogorov & Tikhomirov (1993) that, for a bounded, open domain Ω ⊂ RD, Kolmogorov & Tikhomirov (1993) の古典的な結果であり、有界な開領域 Ω > RD に対して。 0.69
(18) as ε ↓ 0. 18) ε > 0。 0.50
As a consequence, we arrive at the following result, whose proof can be found in Appendix A for the sake of completeness. その結果、次の結果に到達し、その証明は完全性のために付録aに示される。
訳抜け防止モード: その結果,次の結果に到達し,その証明を行う。 完全性のために Appendix A で見ることができる。
0.74
Proposition 12. Let S ⊂ Ω ⊂ Rd be a path-connected closed set contained in an open domain Ω. 第12話。 S {\displaystyle S} を開領域 Ω に含まれる経路連結閉集合とする。 0.56
Let ε (cid:101)F = C α いくぞ ε (cid:101)F = Cα 0.74
B(Ω) and let F =(cid:101)F|S. B(Ω) で F = (cid:101)F|S とする。 0.78
Then, (cid:18) 2B そしたら (cid:18)2b 0.65
(cid:19) ε (cid:19) ε 0.82
(cid:18) (cid:16) ε (cid:18) (cid:16)ε 0.79
α(cid:19) (cid:17) 1 α(cid:19) (cid:17) 1 0.81
N S, 2B (19) N sだ 2B (19) 0.75
≤ log D(F,||·||∞ , 2ε) ≤ log N (F,||·||∞ , ε) ≤ 3α2 log ≤ log D(F,|||||∞ , 2ε) ≤ log N (F,|||||∞ , ε) ≤ 3α2 log 0.88
(cid:18) (cid:16) ε (cid:18) (cid:16)ε 0.79
α(cid:19) (cid:17) 1 α(cid:19) (cid:17) 1 0.81
D S, B Note that the content of the above result is really that of Kolmogorov & Tikhomirov (1993), coupled D sだ B 上記の結果の内容は、kolmogorov & tikhomirov (1993) が結合したものであることに注意。 0.77
with the fact that restriction from Rd to M preserves smoothness. Rd から M への制限は滑らかさを保ちます。 0.62
If we apply the easily proven volumetric bounds on covering and packing numbers for S a Euclidean ball to Proposition 12, we recover the classical result of Kolmogorov & Tikhomirov (1993). S a ユークリッド球の被覆と梱包数に対する証明が容易な体積境界を命題12に適用すると、コルモゴロフ & Tikhomirov (1993) の古典的な結果が回復する。 0.70
The key insight is that low-dimensional subsets can have covering numbers much smaller than those of a high-dimensional if the “dimension” of S is d, then we expect the covering number of S to scale like ε−d. 鍵となる洞察は、低次元の部分集合は、S の「次元」が d であれば、高次元の部分集合よりもはるかに小さい被覆数を持つことができるということである。 0.71
Euclidean ball: Plugging this into Proposition 12 tells us that the entropy of F, up to a factor logarithmic in 1 ε , scales like ε− d Corollary 13. ユークリッド球:これを命題12に差し込むと、1 ε の因子対数まで f のエントロピーは ε− d のコローリー 13 のようにスケールする。 0.76
Let S ⊂ RD be a closed set of diameter ∆ and doubling dimension d. Let S ⊂ Ω open and F be the restriction of C α F を Cα の制限とし、S を直径 d の閉集合とし、二重次元 d とする。 0.62
α . An immediate corollary of Lemma 5 and Proposition 12 is: α . Lemma 5 と Proposition 12 の直訳は次のとおりである。 0.77
α (cid:28) ε− D α (cid:28) ε-D 0.78
B(Ω) to S. Then B(Ω) から S へ。 0.87
(cid:18) 2B∆α (出典:18)2Baα 0.53
(cid:19) d α (cid:19)d α 0.83
ε log (cid:18) 2B ε ログ (cid:18)2b 0.75
(cid:19) ε (cid:19) ε 0.82
log N (F,||·||∞ , ε) ≤ 3α2 log N (F,|||||∞ , ε) ≤ 3α2 0.92
9 (20) 9 (20) 0.85
英語(論文から抽出)日本語訳スコア
Proof. Combine the upper bound in Proposition 12 with the bound in Lemma 5. 証明。 命題12の上限とLemma 5の上限を組み合わせる。 0.54
(cid:4) The conclusion of Corollary 13 is very useful for upper bounds as it tells us that the entropy for Holder α as ε ↓ 0. (cid:4) Corollary 13 の結論は、ホールダー α のエントロピーが ε > 0 であることを示す上界にとって非常に有用である。 0.75
If we desire comparable lower bounds, we require some of the geometry 同等の下限を欲しければ 幾らかの幾何学が必要になります 0.67
balls scales at most like ε− d discussed above. ボールは上述のε−dのようにスケールする。 0.67
Combining Proposition 12 and Corollary 10 yields the following bound: Corollary 14. 命題12と従属10を組み合わせると、以下の境界が得られる。 0.62
Let M ⊂ RD be an isometrically imbedded, compact submanifold with reach τ > 0 and let ε ≤ τ . M > RD を τ > 0 の等長埋め込みコンパクト部分多様体とし、ε ≤ τ とする。 0.69
Suppose Ω ⊃ M is an open set and let F(cid:48) be the restriction of C α M を開集合とし、F(cid:48) を C α の制限とする。 0.71
B(Ω) to M . Then for ε ≤ τ , B(Ω)からM。 そして ε ≤ τ に対して 0.78
(cid:18) 2B (cid:18)2b 0.68
ε (cid:19) d α ≤ log D(F(cid:48),||·||∞ , 2ε) ≤ log N (F(cid:48),||·||∞ , ε) ≤ 3α2 log ε (cid:19) d α ≤ log D(F(cid:48),||||∞ , 2ε) ≤ log N(F(cid:48),||||∞ , ε) ≤ 3α2 log 0.91
vol M ωd d16−d vol M ωd d16−d 0.70
If we set F = C α F = C α とすると 0.68
(cid:18) 2B (cid:19) vol M (cid:18) 2B (cid:19) vol M 0.78
ε ε ωd (cid:18) 2B ε ε ωd (cid:18)2b 0.79
(cid:19) vol M (cid:19)volm 0.83
(cid:16) π (cid:17)d(cid:18) 2B (cid:16)π (cid:17)d(cid:18) 2B 0.76
(cid:19) d α (cid:19)d α 0.83
d ωd 2 ε (cid:16) π d ωd 2 ε (cid:16)π 0.82
(cid:17)d 2 (cid:17)d 2 0.85
d ε− d α (21) d ε−d α (21) 0.84
(22) B(M ), then we have that for all ε < ι, dιd(−κ2) (22) B(M) ならば、すべての ε < ι, dιd(−κ2) に対してそれを持つ。 0.79
√−κ2 ε− d 2 e−dι ~−κ2 ε− d 2e−dι 0.48
d α ≤ log N (F,||·||∞ , ε) ≤ 3α2 log d α ≤ log N (F,||||∞ , ε) ≤ 3α2 log 0.88
vol M ωd In essence, Corollary 14 tells us that the rate of ε− d vol M ωd 本質的には、Corollary 14はε−dの速度を教えてくれる。 0.76
α for the growth of the entropy of Holder balls is sharp for sufficiently small ε. ホルダー球のエントロピー成長のためのαは十分に小さなεに対して鋭い。 0.73
The key difference between the first and second statements is that the first is with respect to an ambient class of functions while the second is with respect to an intrinsic class. 第1の文と第2の文の主な違いは、第1の文が関数の周囲のクラスであり、第2の文は内在的なクラスであることである。 0.65
To better illustrate the difference, consider the case where α = B = 1, i.e., the class of Lipschitz functions on the manifold. この違いをよりよく説明するために、α = B = 1 の場合、つまり多様体上のリプシッツ函数のクラスを考える。 0.72
In both cases, asymptotically, the entropy of Lipschitz functions scales like ε−d; if we restrict to functions that are Lipschitz with respect to the ambient metric, then the above bound only applies for ε < τ ; on the other hand, if we consider the larger class of functions that are Lipschitz with respect to the intrinsic metric, the bound applies for ε < ι. どちらの場合も、漸近的に、リプシッツ函数のエントロピーは ε−d のようにスケールする; 周囲計量に関してリプシッツとなる函数に制限されるなら、上記の境界は ε < τ に対してのみ適用される; 一方、内在計量に関してリプシッツとなる関数のより大きなクラスを考えると、 ε < ι に対して境界が適用される。 0.77
In the case where ι (cid:29) τ , this can be a major improvement. ι (cid:29) τ の場合、これは大きな改善となる。 0.70
The observations in this section are undeniably simple; the real interest comes in the diverse applications of the general principle, some of which we detail below. この節の観察は否定できないほど単純であり、実際の興味は一般原理の多様な応用によってもたらされる。
訳抜け防止モード: この節の観察は間違いなく単純である 実際の関心は、以下に詳述する一般的な原則の多種多様な応用に向けられている。
0.77
As a final note, we remark that our guiding principle of simplifying function classes by restricting them to simple sets likely holds in far greater analysis than is explored here; in particular, Sobolev and Besov classes (see, for example, (Gin´e & Nickl, 2016, §4.3)) likely exhibit similar behavior. 最後に、単純集合に制限することで関数クラスを単純化するという我々の指導原理は、ここで調べられるよりもはるかに大きな解析を下す可能性がある、と述べる:特に、ソボレフ類とベソフ類(例えば、Gin ́e & Nickl, 2016 .4.3)は、同様の振る舞いを示す。 0.75
3 Dimension Estimation We outlined the intuition behind our dimension estimation in the introduction. 3次元推定 はじめに次元推定の背後にある直観を概説した。 0.67
In this section, we formally define the estimator and analyse its theoretical performance. 本稿では,推定器を正式に定義し,その理論的性能を解析する。 0.69
We first apply standard empirical process theory and our complexity bounds in the previous section to upper bound the expected Holder IPM (defined in Equation (2)) between empirical and population distributions: Lemma 15. まず、標準経験過程理論と前節の複雑性境界を適用して、経験的および人口分布の予測ホルダーIPM(方程式(2)で定義される)を上界とする: Lemma 15。 0.81
Let S ⊂ RD be a compact set contained in a ball of radius R. Suppose that we draw n independent samples from a probability measure P supported on S and denote by Pn the corresponding empirical distribution. 例えば、S 上で支持される確率測度 P から n 個の独立標本を描き、対応する経験分布 Pn で表すと仮定する。
訳抜け防止モード: S を半径 R の球に含まれるコンパクトな集合とする。 S 上で支持される確率測度 P から n 個の独立標本を描くことを仮定する。 そして Pn によって対応する経験分布を表す。
0.80
Let P (cid:48) P (cid:48) 0.90
n denote an independent identically distributed measure as Pn. n は独立に同じ分布の測度 Pn を表す。 0.84
Then we have E [dα,B(Pn, P)] ≤ E [dα,B(Pn, P (cid:48) そして私たちは E[dα,B(Pn,P)] ≤ E[dα,B(Pn,Pn,P(cid:48) 0.84
n)] ≤ 16B inf n) ≤ 16B inf 0.83
δ>0 In particular, there exists a universal constant K such that if N (S,||·|| , ε) ≤ C1ε−d for some C, d > 0, then δ>0 特に、ある C に対して N (S,||·|| , ε) ≤ C1ε−d であれば d > 0 となるような普遍定数 K が存在する。 0.86
(cid:32) (cid:114) (cid:32) (cid:114) 0.78
√ 6√ 3 n (cid:90) 1 ~6~3n (cid:90)1 0.61
δ 1 δ 2δ + δ 1 δ 2δ + 0.86
α log (cid:16) 1 +(cid:112)log n1{d=2α} α ログ (cid:16) 1 +(cid:112)log n1{d=2α} 0.77
(cid:17)(cid:16) (cid:17)(cid:16) 0.75
n− α d ∨ n− 1 n−α d = n − 1 0.75
2 (cid:33) (cid:112)N (S,||·|| , ε)dε (cid:17) 2 (cid:33) (cid:112)n (s,||·||, ε)dε (cid:17) 0.88
(23) (24) holds with C = KC1. (23) (24) C = KC1 で成り立つ。 0.85
E [dα(Pn, P)] ≤ CαB E [dα(Pn, P)] ≤ CαB 0.99
The proof uses the symmetrization and chaining technique and applies the complexity bounds of Holder 証明は対称性と連鎖技術を使い、ホルダーの複雑性境界を適用する 0.74
functions found above; the details can be found in Appendix D. 上述の関数。詳細は appendix d で確認できる。 0.60
We now specialize to the case where α = B = 1, due to the computational tractability the resulting distance. α = B = 1 のとき、計算的トラクタビリティによって得られる距離を特殊化する。 0.61
Applying Kantorovich-Rubenste in duality Kantorovich & Rubinshtein (1958), we see that this Kantorovich-Rubenste in duality Kantorovich & Rubinshtein (1958) を応用すると、このことが分かる。 0.77
10 10 0.85
英語(論文から抽出)日本語訳スコア
special case of Lemma 15 recovers the special p = 1 case of Weed et al (2019). Lemma 15 の特殊ケースは、Weed et al (2019) の特殊ケース p = 1 を回復する。 0.77
Thus, from here on, we suppose that d > 2 and our metric on distributions is d1,1 = W1. したがって、ここから d > 2 と分布の計量が d1,1 = W1 であると仮定する。 0.84
data sets of size n, and denote by Pn, P (cid:48) Lemma 15 implies that if supp P ⊂ M and M is of dimension d, then サイズ n と pn で表されるデータ集合 p (cid:48) lemma 15 は supp p と m が d の次元であることを意味する。 0.75
We begin by noting that if we have 2n, independent samples from P, then we can split them into two n the empirical distributions thus generated. まず、P から 2n 個の独立したサンプルがあれば、2 つの n 個の n 個の実験分布が生成されることに注意する。 0.73
We then note that E [W1(Pn, P (cid:48) そして私たちは E [W1(Pn, P)(cid:48) 0.72
n)] ≤ CM,dn− 1 n) ≤ CM,dn− 1 0.84
d (25) If we were to establish a lower bound as well as concentration of W1(Pn, P (cid:48) n) about its mean, then we could consider the following estimator. d (25) 平均値について、W1(Pn, P (cid:48) n) の濃度とともに下界を定めれば、以下の推定値を考えることができる。
訳抜け防止モード: d (25) もし、W1(Pn) の濃度とともに下界を確立するならば、 P ( cid:48 ) n ) about its mean, then we consider the following estimator。
0.81
Given a data set of size 2(α + 1)n, we can break the data into four samples, Pn, P (cid:48) サイズ2(α + 1)nのデータセットが与えられたら、データを4つのサンプル、Pn, P(cid:48)に分割できる。 0.84
n each of size n and Pαn, P (cid:48) n サイズ n と Pαn, P (cid:48) 0.86
αn of size αn. Then we would have αnはαn。 すると私たちは 0.72
dn := − logα dn := − logα 0.82
(cid:16) W1(Pαn,P (cid:48) (cid:16)W1(Pαn,P(cid:48) 0.73
1 αn) W1(Pn,P (cid:48) n) 1 αn) W1(Pn,P(cid:48)n) 0.87
(cid:17) = (cid:17) = 0.84
log W1(Pn, P (cid:48) log W1(Pn, P)(cid:48) 0.83
n) − log W1(Pαn, P (cid:48) n) − log w1(pαn, p(cid:48) 0.82
αn) log α ≈ d αn) ログα ‐d 0.75
(26) Which distance on M should be used to compute the Wasserstein distance, the Euclidean metric ||·|| or the intrinsic metric dM (·,·)? (26) m 上のどの距離をワッサーシュタイン距離、ユークリッド計量 ||·|| または固有計量 dm (·,·) を計算するために使うべきか。 0.79
As can be guessed from Corollary 14, asymptotically, both will work, but for finite sample sizes when ι (cid:29) τ , the latter is much better. Corollary 14から推測できるように、どちらも漸近的に機能するが、ι (cid:29) τ のときの有限標本サイズの場合、後者の方がはるかによい。 0.69
One problem remains, however: because we are not assuming M to be known, we do not have access to dM and thus we cannot compute the necessary Wasserstein cost. しかし、1つの問題は、M が既知であると仮定していないため、dM にアクセスできないため、必要なワッサーシュタインコストを計算できないことである。 0.72
In order to get around this obstacle, we recall the graph distance induced by a kNN graph: Definition 16. この障害を回避するために、kNNグラフによって誘導されるグラフ距離を思い出す。 0.56
Let X1, . . . , Xn ∈ RD be a data set and fix ε > 0. X1 を。 . . , Xn ∈ RD はデータセットであり、ε > 0 を固定する。 0.81
We let G(X, ε) denote the weighted graph with vertices Xi and edges of weight ||Xi − Xj|| between all vertices Xi, Xj such that ||Xi − Xj|| ≤ ε. G(X, ε) は、||Xi − Xj|| ≤ ε であるようなすべての頂点 Xi, Xj の間の頂点 ||Xi − Xj|| の辺を持つ重み付きグラフを表す。 0.77
We denote by dG(X,ε) (or dG if X, ε are clear from context) the geodesic distance on the graph G(X, ε). dg(x,ε) (または dg if x, ε is clear from context) はグラフ g(x, ε) 上の測地線距離を表す。 0.69
We extend this metric to all of RD by letting 我々はこの計量をRDの全てに拡張する。 0.77
dG(p, q) = ||p − πG(p)|| + dG(πG(p), πG(q)) + ||q − πG(q)|| dG(p, q) = ||p − πG(p)|| + dG(πG(p), πG(q)) + ||q − πG(q)|| 0.94
(27) where πG(p) ∈ argminXi ||p − Xi||. (27) πG(p) ∈ argminXi ||p − Xi|| である。 0.79
We now have two Wasserstein distances, each induced by a different metric; to mitigate confusion, we 私たちは2つのワッサースタイン距離を持ち、それぞれ異なる計量によって引き起こされます。 0.58
n be the empirical distributions associated to the data X, X(cid:48). n はデータ x, x(cid:48) に関連する経験的分布である。 0.80
Let W1(Pn, P (cid:48) W1(Pn, P)(cid:48) 0.85
introduce the following notation: n ∈ RD, sampled independently from P such that supp P ⊂ M . 以下の記法を導入する: n ∈ RD は、p から独立にサンプリングされ、sup P は M である。 0.65
Let Definition 17. Let X1, . 定義は17。 X1 を。 0.67
. . , Xn, X(cid:48) Pn, P (cid:48) n) denote the Wasserstein cost 1 (Pn, P (cid:48) with respect to the Euclidean metric and W M n) denote the Wasserstein cost associated to the manifold 1 (Pn, P (cid:48) metric, as in Equation (1). . . xn, x(cid:48) pn, p(cid:48) n) はユークリッド距離に関してワッサースタインコスト 1 (pn, p (cid:48) を表し、w m n は式(1) のように多様体 1 (pn, p (cid:48) 計量に関連するワッサースタインコストを表す。
訳抜け防止モード: . . ,Xn, X(cid:48 ) Pn, P (cid:48 ) n ) はワッサーシュタインコスト 1 (Pn) を表す。 ユークリッド計量に関する P ( cid:48 ) と W M n ) は、多様体 1 (Pn) に関連するワッサーシュタインコストを表す。 P ( cid:48 ) metric, as as in Equation ( 1 ) 。
0.83
For a fixed ε > 0, let W G n) denote the Wasserstein cost associated to the metric dG(supp Pn∪supp P (cid:48) by each of the above metrics. 固定された ε > 0 に対して、W G n) は上記の計量 dG(supp Pn)supp P (cid:48) に関連するワッサーシュタインのコストを表す。 0.70
n,ε). Let dn, (cid:98)dn, and (cid:101)dn denote the dimension estimators from Equation (26) induced n,ε)。 dn, (cid:98)dn, (cid:101)dn を方程式 (26) から導かれる次元推定子とする。 0.77
1, . . . , X(cid:48) 1, . . . , X(cid:48) 0.86
Given sample distributions Pn, P (cid:48) 試料分布Pn, P(cid:48) 0.83
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
n) for any fixed ε, but not W M n) because we are assuming that the learner does not have access to the manifold M . n) 任意の固定 ε に対し、学習者が多様体 m にアクセスできないと仮定しているため、w m n ではない。 0.72
On the other hand, adapting techniques from Weed et al (2019), we are able to provide a non-asymptotic lower bound on the expectations of W1(Pn, P (cid:48) Proposition 18. 一方、Weed et al (2019) の手法を適用することで、W1(Pn, P (cid:48) 命題 18 の期待に基づいて非漸近的下限を与えることができる。 0.63
Suppose that P is a measure on RD such that supp P = M , where M is a d-dimensional, compact manifold with reach τ > 0 and such that the density of P with respect to the uniform measure on M is lower bounded by γ > 0. P を RD 上の測度とし、Supp P = M とし、M を τ > 0 に到達した d-次元コンパクト多様体とし、M 上の一様測度に対する P の密度を γ > 0 で下界とする。 0.75
Suppose that 1 (Pn, P (cid:48) n): もしそうなら 1 (Pn, P (cid:48) n) 0.75
n) and W M n) and W G n)およびwm n)およびWG 0.58
n, we are able to compute W1(Pn, P (cid:48) n, W1(Pn, P)(cid:48)を計算できる 0.84
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
Then, almost surely, そして、ほぼ確実に。 0.65
If we assume only that もしそれだけを仮定すれば 0.65
(cid:18) 4ωd (cid:18)4ωd 0.62
n > γd vol M n> γd vol M 0.86
(cid:19)(cid:16) τ (cid:18) 4ωd (cid:19)(cid:16)τ(cid:18)4ωd 0.68
8 (cid:17)−d (cid:19) 1 8 (cid:17)−d (cid:19) 1 0.80
d γd volM W1(Pn, P) ≥ 1 32 d γd VolM W1(Pn, P) ≥ 1 32 0.87
(cid:32) n > (cid:32) n> 0.78
4ωd γd(−κ2) d 4ωd γd(−κ2) d 0.69
2 vol M √−κ2 edι 2VM √−κ2 edι 0.56
11 n− 1 d (cid:33) 11 n-1 d (cid:33) 0.78
ι−d (28) (29) ι−d (28) (29) 0.76
(30) (30) 0.85
英語(論文から抽出)日本語訳スコア
then, almost surely, 1 (Pn, P) ≥ 1 W M 32 そして ほぼ確実に 1 (Pn, P) ≥ 1 W M 32 0.66
(cid:18) 4ωd (cid:18)4ωd 0.62
(cid:19) 1 d (cid:19)1 d 0.82
γd vol M (−κ2)− 1 γd vol M (−κ2)− 1 0.91
2 eι √−κ2 n− 1 2 eι ~κ2 n− 1 0.66
d (31) An easy proof, based on the techniques (Weed et al , 2019, Proposition 6) can be found in Appendix D. d (31) この技法に基づく簡単な証明(weed et al , 2019, proposition 6)は、appendix dで見ることができる。 0.79
Similarly, we can apply the same proof technique as Lemma 15 to get Proposition 19. 同様に、命題19を得るにはLemma 15と同じ証明手法を適用することができる。 0.75
Let M ⊂ RD be a compact manifold with positive reach τ and dimension d > 2. M > RD を正のリーチ τ と次元 d > 2 のコンパクト多様体とする。 0.78
Further(cid:1) d2 n ∼ P be more, suppose that P is a probability measure on RD with supp P ⊂ M . さらに (cid: 1) d2 n > P はより多く、P が RD 上の確率測度であり、Supp P > M であるとする。 0.74
Let X1, . . . , Xn, X(cid:48) independent with corresponding empirical distributions Pn, P (cid:48) then X1 を。 . . , Xn, X(cid:48) は対応する経験分布 Pn, P(cid:48) と独立である。 0.78
n. Then if diam M = ∆ and n > 2∆(cid:0) 2∆ (cid:114) vol M n. もし diam M と n > 2 とすると、 (cid:0) 2 と (cid:114) vol M 0.77
1, . . . , X(cid:48) 1, . . . , X(cid:48) 0.86
(cid:16) π E(cid:2)W M (cid:16)π E(cid:2)W M 0.84
1 (Pn, P)(cid:3) ≤ E(cid:2)W M 1 (Pn, P)(cid:3) ≤ E(cid:2)W M 0.95
(cid:17) d 2(cid:112)log nn− 1 (cid:17) d 2(cid:112)log nn− 1 0.83
n)(cid:3) ≤ C∆ n)(cid:3)≤ C 0.86
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
(32) d−2 ι (32) d−2 ι 0.76
d dωd 2 The full proof is in Appendix D and applies symmetrization and chaining, with an upper bound of Corollary 14. d dωd 2 完全な証明は Appendix D にあり、シンメトリゼーションと連鎖を適用し、Corollary 14 の上限を持つ。 0.75
We note, as before, that a similar asymptotic rate is obtained by Weed et al (2019) in a slightly different setting. 前述したように、weed et al (2019) によって少し異なる設定で同様の漸近速度が得られることに注意する。 0.68
We noted above Equation (26) that we required two facts to make our intuition precise. 上述の方程式(26)では直観を正確にするために2つの事実を必要とした。
訳抜け防止モード: 上述の方程式 (26 ) 直感を正確にするために 2つの事実が必要でした
0.76
We have just shown that the first, comparable lower bounds on the Wasserstein distance hold. 我々は、ワッサースタイン距離ホールドにおける最初の、比較する下界を示した。 0.61
We turn now to the second: concentration. 私たちは今,第2に目を向けています。 0.47
To make this rigorous, we need one last technical concept: the T2-inequality. これを厳格にするために、最後の技術的概念であるt2-inequalityが必要です。 0.63
Definition 20. Let µ be a measure on a metric space (T, d). 定義20。 μ を計量空間 (T, d) 上の測度とする。 0.73
We say that µ satisfies a T2-inequality with constant c2 if for all measures ν (cid:28) µ, we have すべての測度 ν (cid:28) μ に対して、μ が定数 c2 の t2-一意性を満たすことを言う。 0.74
W2(µ, ν) ≤(cid:112)2c2D(ν||µ) W2(μ, ν)≤(cid:112)2c2D(ν||μ) 0.76
The reason that the T2 inequality is useful for us is that Bobkov & G¨otze (1999) tell us that such an inequality implies, and is, by Gozlan et al (2009), equivalent to Lipschitz concentration. t2不等式が我々に有用である理由は、ボブコフ&g・ショツェ (1999) がそのような不等式は、ゴズランら (2009) がリプシッツ濃度と同値であることを示すからである。 0.61
We note further that W1(Pn, P (cid:48) さらに、W1(Pn, P)(cid:48) 0.79
We now provide a non-asymptotic bound on the quality of the estimator (cid:101)dn. 現在、推定器(cid:101)dnの品質に非漸近的境界を与える。 0.61
n) is a Lipschitz function of the dataset and thus concentrates about its mean. n) はデータセットのリプシッツ関数であり、その平均に集中する。 0.64
Theorem 21. Let P be a probability measure on RD and suppose that P has a density with respect to the volume measure of M lower bounded by 1 γ , where M is a d-dimensional manifold with reach τ > 0 such that d ≥ 3 and diam M = ∆. 理論21。 P を RD 上の確率測度とし、P が 1 γ で有界な M の体積測度に対して密度を持つと仮定する。
訳抜け防止モード: 理論21。 P を RD 上の確率測度とし、P が 1 γ で有界な M の体積測度に対して密度を持つと仮定する。 ここで M は d ≥ 3 となるような τ > 0 の d-次元多様体である そして、M = s である。
0.73
Furthermore, suppose that P satisfies a T2 inequality with constant c2. さらに、P が定数 c2 の T2 の不等式を満たすと仮定する。 0.62
Let β > 0 and suppose α, n satisfy β > 0 で α, n を満たすと仮定する。 0.82
(33) (34) (35) (33) (34) (35) 0.85
(36) n ≥ max (36) n ≥ max 0.85
α ≥ max αn ≥ γd 2ωd α ≥ max αn ≥ γd 2ωd 0.75
, ι 8c2 (cid:18) 8 (cid:19)d (cid:18) (cid:19) d+2 (cid:18) vol M (cid:32) (cid:18) 16π , ι 8c2 (cid:18) 8 (cid:19)d (cid:18) (cid:19) d+2 (cid:18) vol M (cid:32) (cid:18) 16π 0.76
d vol M 2 log d vol M ログ2 0.77
4ωd 2β 1 ρ 4ωd 2β 1 ρ 0.74
d−5(cid:35) (cid:19) 2d (cid:35) (cid:19)d(cid:33) d−5(cid:35) (cid:19) 2d(cid:35) (cid:19)d(cid:33) 0.70
1 β , (Cγ) 1 β , (Cγ) 0.92
log ρωd τ 4ωd ログ ρωd τ 4ωd 0.69
γd vol M (log n) γd vol M (log n) 0.90
d 2β , (cid:19)d d2β。 (cid:19)d 0.75
(cid:34) (cid:34) (cid:18) 16π (cid:34) (cid:34) (cid:18) 16π 0.72
τ d Suppose we have 2(α + 1)n samples drawn independently from P. Then, with probability at least 1 − 6ρ, we have τ d P から独立して引き出された 2(α + 1)n 個のサンプルがあると仮定する。 0.75
If ι is replaced by τ in Equation (34), we get the same bound with the vanilla estimator dn replacing (cid:101)dn. 式 (34) において ι を τ に置き換えると、バニラ推定子 dn を置換する (cid:101)dn と同一の有界となる。 0.72
While αn = Ω(cid:0)τ−d(cid:1), we may take n as small as Ω(cid:0)ι−d(cid:1). αn = Ω(cid:0)τ−d(cid:1) に対し、n は Ω(cid:0)ι−d(cid:1) である。 0.64
Thus, using (cid:101)dn instead of the naive estimator dn したがって、(cid:101)dn は、naive estimator dn の代わりに使われる。 0.62
Note that the T2 inequality is always satisfied in our setting because M is compact; in general, the M がコンパクトであるため、T2 の不等式は常に我々の設定で満たされることに注意。 0.76
While the appearance of ι in Equation (34) may seem minor, it is critical for any practical estimator. Equation (34) における ι の出現は小さいように見えるかもしれないが、実際的な推定には重要である。 0.64
constant c2 will be exponential in d. 定数c2はdで指数関数になります 0.63
1 + 4β (37) 1 + 4β (37) 0.90
allows us to leverage the entire data set in estimating the intrinsic distances, even on the small sub-samples. 小さなサブサンプルでも、本質的な距離を推定するためにデータセット全体を活用できます。 0.67
12 ≤ (cid:101)dn ≤ (1 + 4β)d 12 ≤ (cid:101)dn ≤ (1 + 4β)d 0.90
英語(論文から抽出)日本語訳スコア
From the proof, it is clear that we want α to be as large as possible; thus if we have a total of N samples, we wish to make n as small as possible. 証明から、我々は α ができるだけ大きいことを望んでおり、従って N 個のサンプルがあるなら、n をできるだけ小さくしたい。
訳抜け防止モード: 証明から、我々はできるだけ α が大きくなることを望んでいることは明らかである。 したがって、合計 N 個のサンプルがあれば、n をできるだけ小さくしたい。
0.78
If ι (cid:29) τ then we can make n much smaller (scaling like ι−d) than if we were to simply use the Euclidean distance. ι (cid:29) τ であれば、単にユークリッド距離を使うよりも n をより小さくすることができる(ι-d のようなスケーリング)。 0.73
As a result, on any data set where ι (cid:29) τ , the sample complexity その結果、ι (cid:29) τ となる任意のデータセット上で、サンプル複雑性 0.90
of (cid:101)dn can be much smaller than that of dn. (cid:101)dnはdnのそれよりずっと小さい。 0.67
imates dM with high probability and thus (cid:101)dn ≈ (cid:98)dn; second, we need to show that (cid:98)dn is, indeed, a good For the first part of the proof, in order to show that (cid:98)dn ≈ (cid:101)dn, we demonstrate that dM ≈ dG in the 第二に、(cid:98)dn は、(cid:98)dn が、(cid:101)dn であることを示すために、証明の第一部において、(cid:98)dn が、(cid:101)dn であることを示すために、(cid:98)dn が、(cid:101)dnであることを示すために、(cid:98)dn が証明の第一部であることを示す必要がある。
訳抜け防止モード: imate dM は高い確率で、したがって (cid:101)dn > (cid:98)dn ; 次に、 私たちはそれを示さなければなりません() cid:98)dnは、確かに良いことです。 cid:98)dn > (cid:101)dn を示すために、dMはdGであることを示す。
0.81
estimate of d. The second part follows from Propositions 18 and 19, and concentration; a detailed proof can be found in Appendix B. d) 第二部は,命題18及び19及び集中度から従う。詳細な証拠は,Appendix Bに記載されている。 0.78
There are two parts to the proof of Theorem 21: first, we need to establish that our metric dG approx- 定理21の証明には2つの部分がある: まず、我々の計量dG近似を確立する必要がある。 0.76
following result: Proposition 22. 結果は次のとおりである。 0.60
Let P be a probability measure on RD and suppose that supp P = M , a geodesically convex, compact manifold of dimension d and reach τ > 0. P を RD 上の確率測度とし、スップ P = M , 測地的凸、次元 d のコンパクト多様体で τ > 0 に達すると仮定する。
訳抜け防止モード: P を RD 上の確率測度とし、それを仮定する。 supp P = M, a geodesically convex, compact manifold of dimension d and reach τ > 0。
0.88
Suppose that we sample X1, . x1 をサンプリングすると仮定する。 0.69
. . , Xn ∼ P independently. . . 独立に xn を p とする。 0.81
Let λ ≤ 1 2 and G = G(X, τ λ). λ ≤ 1 とする 2 と G = G(X, τ λ) である。 0.90
If for some ρ < 1, ある ρ < 1 に対して 0.66
where for any δ > 0 任意の δ > 0 に対して 0.79
n ≥ w = inf p∈M Then, with probability at least 1 − ρ, for all x, y ∈ M , n ≥ w すると、すべての x, y ∈ M に対して少なくとも 1 − ρ の確率を持つ。 0.81
w(δ) P(BM w(δ) P(BM) 0.85
δ (p)) δ (複数形 δs) 0.70
(cid:16) (cid:17) (cid:16) (cid:17) 0.78
N log M, dM , τ λ2 8 N ログ M, dM , τ λ2 8 0.84
ρ (cid:18) τ λ2 ρ (cid:18)τ λ2 0.81
(cid:19) 8 (cid:19) 8 0.82
1 (38) (39) 1 (38) (39) 0.85
(40) (1 − λ) dM (x, y) ≤ dG(x, y) ≤ (1 + λ)dM (x, y) (40) (1 − λ) dM (x, y) ≤ dG(x, y) ≤ (1 + λ)dM (x, y) 0.85
The proof of Proposition 22 follows the general outline of Bernstein et al (2000), but is modified in two key ways: first, we control relevant geometric quantities by τ instead of by the quantities in Bernstein et al (2000); second, we provide a quantitative, nonasymptotic bound on the number of samples needed to get a good approximation with high probability. 命題22の証明は、bernstein et al (2000) の一般的な概要に従っているが、2つの重要な方法で修正されている: 第一に、我々は、bernstein et al (2000) の量ではなく、関連する幾何学的量を τ で制御する。
訳抜け防止モード: 命題22の証明は、bernstein et al (2000) の概略に従う。 第一に、私たちは、bernstein et al (2000 ) の量ではなく、τ によって関連する幾何学的量を制御します。 良好な近似を得るのに必要なサンプル数を、高い確率で定量的に非漸近的に制限する。
0.68
The details are deferred to Appendix C. 詳細はAppendix Cを参照してください。 0.68
This result may be of interest in its own right as it provides a non-asymptotic version of the results from Tenenbaum et al (2000); Bernstein et al (2000). この結果は、Tenenbaum et al (2000), Bernstein et al (2000) の結果の漸近的でないバージョンを提供するので、それ自体が興味を持つかもしれない。 0.78
In particular, if we suppose that P has a density with respect to the uniform measure on M and this density is bounded below by a constant 1 γ > 0, then Proposition 22 combined with Proposition 9 tells us that if we have 特に、P が M 上の一様測度に対して密度を持ち、この密度が定数 1 γ > 0 で下限に制限されていると仮定すると、命題 22 と命題 9 が組み合わさって、それが成り立つことを教えてくれる。 0.73
γ vol M(cid:0)τ λ2(cid:1)−d γ vol M(cid:0)τ λ2(cid:1)-d 0.83
log (cid:18) vol M ログ (cid:18) vol M 0.80
(cid:19) ρτ λ2 (cid:19) ρτ λ2 0.75
(cid:46) n (41) (cid:46)n (41) 0.84
samples, then we can recover the intrinsic distance of M with distortion λ. サンプルでは、歪 λ で m の固有距離を回復することができる。 0.73
We further note that the dependence on τ, λ, d is quite reasonable in Proposition 22. さらに、τ, λ, d への依存は命題 22 においてかなり合理的である。 0.79
The argument requires the construction of a τ λ2-net on M and it is not difficult to see that you need a covering at scale proportional to τ λ in order to recover the intrinsic metric from discrete data points. この議論には m 上の τ λ2-net の構成が必要であり、個別のデータポイントから固有のメトリックを復元するために τ λ に比例するスケールでの被覆が必要であることは、難しくない。 0.79
For example, consider Figure 2; were a curve to be added to connect the points at the bottle neck, this would drastically decrease the intrinsic distance between the bottleneck points. 例えば、図2は、ボトルネックの点を接続するための曲線であり、これはボトルネック点間の本質的な距離を劇的に減少させる。 0.66
In order to determine that the intrinsic distance between these points (without the connector) is actually quite large using the graph metric estimator, we need to set ε < τ , in which case these points are certainly only connected if there exists a point of distance less than τ to the bottleneck dimension d by taking the product of the curve with rSd−1 for r = Θ(τ ); in this case, a similar argument of distance at most τ to one of the bottleneck points. これらの点の間の内在距離(コネクタなし)が実際にグラフ計量推定器(英語版)を用いてかなり大きいと判断するためには、ε < τ を定める必要があるが、この場合、これらの点が確実に連結であるのは、r = τ(τ) に対して rSd−1 で曲線の積を取ることにより τ より小さい点がボトルネック次元 d に連結している場合に限られる。 0.79
In this way, we see that the τ−d scaling is unavoidable in general. このようにして、τ−dのスケーリングは一般には避けられない。 0.67
Finally, note that the other estimators of intrinsic dimension mentioned in the introduction, in particular the MLE estimator of Levina & Bickel (2004), implicitly require the accuracy of the kNN distance for their estimation to hold. 最後に、導入で言及されている内在次元の他の推定器、特にレヴィナ・アンド・ビッケルのmle推定器(2004年)は、その推定を行うために暗黙的にkn距離の精度を必要とすることに注意する。 0.59
Thus these estimators also suffer from the τ−d sample complexity and so our estimator is, asymptotically, at least as good as these others. したがって、これらの推定器はτ-d サンプルの複雑さに苦しむので、我々の推定器は漸近的に、少なくとも他のものと同じくらい良い。
訳抜け防止モード: したがって、これらの推定子はτ-dサンプルの複雑さにも悩まされる。 私たちの推定器は 漸近的に 他と同等に良いものです
0.62
point, which can only occur with high probability if n = Ω(cid:0)τ−1(cid:1). これは n = ω(cid:0)τ−1(cid:1) の場合のみ高い確率で起こる。 0.75
We can extend this example to arbitrary holds and we now need Ω(cid:0)τ−d(cid:1) points in order to guarantee with high probability that there exists a point この例を任意のホールドに拡張することができ、ある点が存在することを高い確率で保証するためにΩ(cid:0)τ−d(cid:1) 点が必要である。 0.68
13 13 0.85
英語(論文から抽出)日本語訳スコア
4 Application of Techniques to GANs 4 gans への技術の適用 0.79
In this section, we note that our techniques are not confined to the realm of dimension estimation and, in fact, readily apply to other problems. 本稿では,本手法は次元推定の領域に限らず,他の問題にも容易に適用可能であることに留意する。 0.65
As an example, consider the unsupervised learning problem of generative modeling, where we suppose that there are samples X1, . 例えば、生成モデリングの教師なし学習問題を考えると、サンプルx1, ...が存在すると仮定する。 0.73
. . , Xn ∼ P independent and we wish to . . , Xn > P は独立でありたい。 0.81
produce a sample (cid:98)X ∼(cid:98)P such that(cid:98)P and P are close. cid:98)p と p が近くなるようにサンプル (cid:98)x (cid:98)p を生成する。 0.77
Statistically, this problem can be expressed by fixing a class of distributions P and using the data to choose (cid:98)µ ∈ P such that (cid:98)µ is in some sense close to P. For 統計的には、この問題は分布 P のクラスを固定し、(cid:98)μ ∈ P を (cid:98)μ が P に近い意味で選択することで表すことができる。 0.87
computational reasons, one wishes P to contain distributions from which it is computationally efficient to sample; in practice, P is usually the class of pushforwards of a multi-variate Gaussian distribution by some deep neural network class G. While our statistical results include this setting, they are not restricted and apply for general classes of distributions P. 実際には、p は、ディープニューラルネットワークのクラス g による多変量ガウス分布のプッシュフォワードのクラスである。
訳抜け防止モード: 計算上の理由 p は、サンプルが計算効率のよい分布を含むことを望んでいる。 p は通常、ディープニューラルネットワークのクラス g による多変量ガウス分布のプッシュフォワードのクラスである。 これらは制限されず、分布 p の一般クラスにも適用できる。
0.75
In order to make the problem more precise, we require some notion of distance between distributions. 問題をより正確にするために、分布間の距離という概念が必要となる。 0.76
We use the notion of the Integral Probability Metric M¨uller (1997); Sriperumbudur et al (2012) associated B(Ω), as defined above. 積分確率距離(英語版)(Integral Probability Metric M) (1997), Sriperumbudur et al (2012) associated B(Ω) という概念を上述の通り用いている。 0.75
We suppose that supp P ⊂ Ω and we abbreviate the corresponding to a Holder ball C α IPM distance by dα,B. 我々は、サップ P を Ω とし、ホールダー球 C α IPM の距離を dα,B で短縮する。 0.68
Given the empirical distribution Pn, the GAN that we study can be expressed as 経験的分布 Pn を考えると、我々が研究する GAN は次のように表現できる。 0.61
(cid:98)µ ∈ argmin (cid:98)μ ∈ argmin 0.92
µ∈P dα,B(µ, Pn) = argmin μ・P dα,B(μ, Pn) = argmin 0.67
µ∈P sup f∈Cα μ・P sup fvccα 0.49
B (Ω) B (複数形 Bs) 0.53
Eµ[f ] − Pnf Eμ[f ] − Pnf 0.97
(42) In this section, we generalize the results of Schreuder et al (2020). (42) この節では、Schreuder et al (2020) の結果を一般化する。 0.77
In particular, we derive new estimation rates for a GAN using a Holder ball as a dicriminating class, assuming that the population distribution P is low-dimensional; like Schreuder et al (2020), we consider the noised and potentially contaminated setting. 特に,集合分布 p が低次元であることを仮定して,ホルダーボールを用いたganの新しい推定率を導出する(schreuder et al (2020) のように,ノイズと潜在的汚染の設定を考える。
訳抜け防止モード: 特に,ホルダー球を識別クラスとして用いたGANの新しい推定率を導出する。 人口分布 P が低次元であると仮定すると、Schreuder et al (2020 ) のように。 騒音や汚染の恐れがある 状況を考えます
0.81
We have Theorem 23. Theorem 23 がある。 0.74
Suppose that P is a probability measure on RD supported on a compact set S and suppose we have n independent Xi ∼ P with empirical distribution Pn. P をコンパクト集合 S 上で支持されるRD 上の確率測度とし、実験分布 Pn を持つ n 個の独立 Xi > P を仮定する。 0.81
Let ηi be independent, centred random variables ηi を独立、中心確率変数とする 0.75
on RD such that E(cid:104)||ηi||2(cid:105) ≤ σ2. RD 上で E(cid:104)||ηi||2(cid:105) ≤ σ2 となる。 0.62
Suppose we observe (cid:101)Xi such that for at least (1 − ε)n of the (cid:101)Xi, we have (cid:101)Xi = Xi + ηi; let the empirical distribution of the (cid:101)Xi be (cid:101)Pn. すなわち、(cid:101)Xi の少なくとも (1 − ε)n に対して、(cid:101)Xi = Xi + ηi が成り立つと仮定し、(cid:101)Xi の実証分布を (cid:101)Pn とする。 0.79
Let P be a known set of distributions and define p を既知の分布の集合とし、定義する 0.83
dα,B(µ,(cid:101)Pn) dα,B(μ,(cid:101)Pn) 0.99
(cid:98)µ ∈ argmin dα,B(µ, P) + B(σ + 2ε) + CαB(cid:112)log n (cid:98)μ ∈ argmin dα,B(μ, P) + B(σ + 2ε) + CαB(cid:112)log n 0.92
µ∈P (cid:16) μ・P (cid:16) 0.60
n− α d ∨ n− 1 n−α d = n − 1 0.75
2 (cid:17) 2 (cid:17) 0.82
(43) (44) Then if there is some C1, d such that N (S,||·|| , δ) ≤ C1ε−d, we have (43) (44) すると、ある C1, d が存在して N (S,||||| , δ) ≤ C1ε−d が成立する。 0.84
E [dα,B((cid:98)µ, P)] ≤ inf E[dα,B((cid:98)μ, P)] ≤ inf 0.92
µ∈P where C is a constant depending linearly on C1. μ・P C は C1 に線形に依存する定数である。 0.60
We note that the log n factor can be easily removed for all cases α (cid:54)= d 全ての場合、log n 因子は α (cid:54)= d に対して容易に除去できる。 0.76
2 by paying slightly in order to increase the constants; for the sake of simplicity, we do not bother with this argument here. 単純さのため、ここでは、この議論に気を配らない。
訳抜け防止モード: 2 定数を増やすために若干の支払いをする。 単純さのために、私たちはこの議論に気を配らない。
0.70
The proof of Theorem 23 is similar in spirit to that of Schreuder et al (2020), which in turn follows Liang (2018), with details in Appendix D. The key step is in applying the bounds in Lemma 15 to the arguments of Liang (2018). Theorem 23 の証明は Schreuder et al (2020) と精神的に類似しており、これは Liang (2018) に続き、 Appendix D に詳細が記載されている。
訳抜け防止モード: Theorem 23の証明はSchreuder et al (2020)と精神的に似ている。 これは、Liang (2018 ) に続き、Appendix D に詳細が記載されている。 Lemma 15 のバウンダリを Liang (2018 ) の議論に適用する。
0.65
We compare our result to the corresponding theorem (Schreuder et al , 2020, Theorem 2). その結果を対応する定理(schreuder et al , 2020, theorem 2)と比較する。 0.75
In that work, the authors considered a setting where there is a known intrinsic dimension d and the population その作品において、著者たちは、既知の内在次元dと人口が存在する設定を検討した 0.71
distribution P = g#U(cid:0)[0, 1]d(cid:1), the push-forward by an L-Lipschitz function g of the uniform distribution on a d-dimensional hypercube; in addition, they take P to be the set of push-forwards of U(cid:0)[0, 1]d(cid:1) by functions 分布 P = g#U(cid:0)[0, 1]d(cid:1) は、d-次元ハイパーキューブ上の一様分布の L-Lipschitz 関数 g によるプッシュフォワードであり、P を函数による U(cid:0)[0, 1]d(cid:1) のプッシュフォワードの集合とする。 0.90
in some class F, all of whose elements are L-Lipschitz. あるクラス F において、すべての元は L-Lipschitz である。 0.73
Their result, (Schreuder et al , 2020, Theorem 2), gives an upper bound of それらの結果 (Schreuder et al , 2020, Theorem 2) は上界を与える。 0.75
E [dα,1((cid:98)µ, P)] ≤ inf E[dα,1((cid:98)μ, P)] ≤ inf 0.90
µ∈P √ dα,1(µ, P) + L(σ + 2ε) + cL μ・P dα,1(μ, P) + L(σ + 2ε) + cL 0.68
d n− α d ∨ n− 1 d n−α d = n − 1 0.79
2 (cid:16) 2 (cid:16) 0.82
(cid:17) (45) (cid:17) (45) 0.82
Note that our result is an improvement in two key respects. 私たちの結果は、2つの重要な点で改善されていることに注意してください。 0.44
First, we do not treat the intrinsic dimension d as known, nor do we force the dimension of the feature space to be the same as the intrinsic dimension. まず、内在次元 d を既知のものとして扱うことも、特徴空間の次元が内在次元と同じであるように強制することもない。 0.68
Many of the state-of-the-art GAN architectures on datasets such as ImageNet use a feature space of dimension ImageNetのようなデータセット上の最先端のGANアーキテクチャの多くは、次元の特徴空間を使用している 0.66
14 14 0.85
英語(論文から抽出)日本語訳スコア
128 or 256 Wu et al (2019); the best rate that the work of Schreuder et al (2020) can give, then would be n− 1 In our setting, even if the feature space is complex, if the true distribution lies on a much 128 . 128 または 256 wu et al (2019);schreuder et al (2020) の仕事が与える最高のレートは、たとえ機能空間が複雑であっても、真の分布が 128 であるとしても、我々の設定では n− 1 となる。 0.78
lower dimensional subspace, then it is the true, intrinsic dimension, that determines the rate of estimation. 次元の低い部分空間では、それは真の本質的な次元であり、見積もりの速度を決定する。 0.63
Secondly, note that the upper bound in Equation (45) depends on the Lipschitz constant L; as the function classes used to determine the push-forwards are essentially all deep neural networks in practice, and the Lipschitz constants of such functions are exponential in depth, this can be a very pessimistic upper bound; our result, however, does not depend on this Lipschitz constant, but rather on properties intrinsic to the probability distribution P. This dependence is particularly notable in the noisy regime, where σ, ε do not vanish; the large multiplicative factor of L in this case would then make the bound useless. Secondly, note that the upper bound in Equation (45) depends on the Lipschitz constant L; as the function classes used to determine the push-forwards are essentially all deep neural networks in practice, and the Lipschitz constants of such functions are exponential in depth, this can be a very pessimistic upper bound; our result, however, does not depend on this Lipschitz constant, but rather on properties intrinsic to the probability distribution P. This dependence is particularly notable in the noisy regime, where σ, ε do not vanish; the large multiplicative factor of L in this case would then make the bound useless. 0.87
We conclude this section by considering the case most often used in practice: the Wasserstein GAN. この節を最後に、実際に最もよく使われるケースであるwasserstein ganを考察する。 0.63
Corollary 24. Suppose we are in the setting of Theorem 23 and S is contained in a ball of radius R for R ≥ 1 第24回。 定理23の設定中であり、S が R ≥ 1 の半径 R の球に含まれると仮定する。 0.71
2 . Then, E [W1((cid:98)µ, P)] ≤ inf 2 . そしたら E [W1((cid:98)μ, P)] ≤ inf 0.81
µ∈P W1(µ, P) + σ + 2Rε + CR(cid:112)log nn− 1 μ・P W1(μ, P) + σ + 2Rε + CR(cid:112)log nn− 1 0.65
d (46) The proof of the corollary is almost immediate from Theorem 23. d (46) 論理学の証明は、定理23からほぼ即時である。 0.79
With additional assumptions on the tails of the ηi, we can turn our expectation into a high probability statement. ηi の尾に関する追加の仮定により、我々は予想を高い確率のステートメントに変えることができる。 0.67
In the special case with neither noise nor contamination, i.e. 騒音や汚染のない特別の場合、すなわち。 0.56
σ = ε = 0, we get that the Wasserstein GAN converges in Wasserstein distance at a rate of n− 1 d , which we believe explains in large part the recent empirical success in modern Wasserstein-GANs. σ = ε = 0 とすると、ワッサーシュタイン GAN は n − 1 d の速度でワッサーシュタイン距離に収束する。
訳抜け防止モード: σ = ε = 0 であれば、ワッサーシュタインgan は n− 1 d の速度でワッサーシュタイン距離に収束する。 現代のwassersteinにおける最近の実証的な成功の大部分は、gansであると私たちは考えています。
0.58
Acknowledgements We acknowledge support from the NSF through award DMS-2031883 and from the Simons Foundation through Award 814639 for the Collaboration on the Theoretical Foundations of Deep Learning. 覚書 我々は,NSF から DMS-2031883 を,Simons Foundation から 814639 を,Deep Learning の理論的基礎に関する共同研究を通じて支援することを認めた。 0.59
We acknowledge the support from NSF under award DMS-1953181, NSF Graduate Research Fellowship support under Grant No. 我々は,NSFの助成金であるDMS-1953181,Grant No. のNSF大学院研究フェローシップの支援を認めている。 0.58
1122374, and support from the MIT-IBM Watson AI Lab. 1122374、MIT-IBM Watson AI Labのサポート。 0.70
References Aamari, Eddie, Kim, Jisu, Chazal, Fr´ed´eric, Michel, Bertrand, Rinaldo, Alessandro, Wasserman, Larry, et al 参考文献 Aamari, Eddie, Kim, Jisu, Chazal, Fr ́ed ́eric, Michel, Bertrand, Rinaldo, Alessandro, Wasserman, Larry, et al 0.82
2019. Estimating the reach of a manifold. 2019. 多様体の到達範囲を推定する。 0.74
Electronic journal of statistics, 13(1), 1359–1399. 電子統計誌、13(1)、1359-1399。 0.77
Amenta, Nina, & Bern, Marshall. Amenta, Nina, & Bern, Marshall 0.71
1999. Surface reconstruction by Voronoi filtering. 1999. voronoiフィルタによる表面再構成 0.83
Discrete & Computa- Discrete & Computa- 0.94
tional Geometry, 22(4), 481–504. 等角幾何学 22(4), 481–504。 0.72
Arjovsky, Martin, Chintala, Soumith, & Bottou, L´eon. Arjovsky, Martin, Chintala, Soumith, & Bottou, L ́eon 0.84
2017. Wasserstein generative adversarial networks. 2017. wassersteingenerativ e adversarial networks(英語) 0.78
Pages 214–223 of: International conference on machine learning. 214-223ページ: 機械学習に関する国際会議。 0.82
PMLR. Assouad, Patrice. PMLR。 アサド、パトリス。 0.61
1983. Plongements lipschitziens dans rn. 1983. 原題はPlongements lipschitziens dans rn。 0.78
Bulletin de la Soci´et´e Math´ematique de France, 111, 429–448. フランス数学会誌。 111, 429–448. 0.58
Belkin, Mikhail, & Niyogi, Partha. Belkin, Mikhail, & Niyogi, Partha 0.69
2001. Laplacian eigenmaps and spectral techniques for embedding and 2001. ラプラシアン固有写像と埋め込みとスペクトル手法 0.74
clustering. Pages 585–591 of: Nips, vol. クラスタリング。 ページ585-591: Nips, vol。 0.69
14. Bernstein, Mira, Silva, Vin De, Langford, John C., & Tenenbaum, Joshua B. 14. Bernstein, Mira, Silva, Vin De, Langford, John C., & Tenenbaum, Joshua B 0.82
2000. Graph Approximations 2000. グラフ近似 0.80
to Geodesics on Embedded Manifolds. Geodesics on Embedded Manifolds(英語) 0.72
Bickel, Peter J, Li, Bo, et al 2007. Bickel, Peter J, Li, Bo, et al 2007 0.75
Local polynomial regression on unknown manifolds. 未知多様体上の局所多項式回帰。 0.72
Pages 177–186 of: Complex datasets and inverse problems. 177-186頁。 複雑なデータセットと逆問題。 0.54
Institute of Mathematical Statistics. Bobkov, Sergej G, & G¨otze, Friedrich. 数学統計学専攻。 Bobkov, Sergej G, & G sotze, Friedrich 0.72
1999. Exponential integrability and transportation cost related to 1999. 指数積分性と輸送コスト 0.69
logarithmic Sobolev inequalities. 対数ソボレフ不等式。 0.63
Journal of Functional Analysis, 163(1), 1–28. Journal of Functional Analysis, 163(1), 1–28。 0.87
15 15 0.85
英語(論文から抽出)日本語訳スコア
Boissonnat, Jean-Daniel, Lieutier, Andr´e, & Wintraecken, Mathijs. Boissonnat, Jean-Daniel, Lieutier, Andr ́e, & Wintraecken, Mathijs 0.86
2019. The reach, metric distortion, geodesic convexity and the variation of tangent spaces. 2019. 距離歪み、測地線凸性、接空間の変化などである。 0.72
Journal of applied and computational topology, 3(1), 29–58. journal of applied and computational topology, 3(1), 29-58を参照。 0.86
Camastra, Francesco, & Staiano, Antonino. Camastra, Francesco, & Staiano, Antonino 0.71
2016. Intrinsic dimension estimation: Advances and open 2016. 内在的次元推定:進歩とオープン 0.82
problems. Information Sciences, 328, 26–41. 問題だ 328年、26-41頁。 0.54
Camastra, Francesco, & Vinciarelli, Alessandro. Camastra, Francesco, & Vinciarelli, Alessandro 0.73
2002. Estimating the intrinsic dimension of data with a fractal-based method. 2002. フラクタルベース法によるデータ固有次元の推定 0.71
IEEE Transactions on pattern analysis and machine intelligence, 24(10), 1404– 1407. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(10), 1404–1407。 0.78
Chen, Minshuo, Liao, Wenjing, Zha, Hongyuan, & Zhao, Tuo. Chen, Minshuo, Liao, Wenjing, Zha, Hongyuan, & Zhao, Tuo 0.74
2020. Statistical Guarantees of Generative 2020. 生成の統計的保証 0.85
Adversarial Networks for Distribution Estimation. 分布推定のための逆ネットワーク 0.75
Cuturi, Marco. Cuturi, Marco 0.63
2013. Sinkhorn distances: Lightspeed computation of optimal transport. 2013. シンクホーン距離:最適な輸送の光速計算。 0.85
Pages 2292–2300 2292-2300頁。 0.35
of: Advances in neural information processing systems. 神経情報処理システムの進歩。 0.53
Dasgupta, Sanjoy, & Freund, Yoav. Dasgupta, Sanjoy, & Freund, Yoav 0.71
2008. Random projection trees and low dimensional manifolds. 2008. ランダム射影木と低次元多様体。 0.76
Pages 537–546 of: Proceedings of the fortieth annual ACM symposium on Theory of computing. ページ 537–546 of: proceedings of the forth annual acm symposium on theory of computing。 0.77
Donoho, David L, & Grimes, Carrie. Donoho, David L, & Grimes, Carrie 0.73
2003. Hessian eigenmaps: Locally linear embedding techniques for 2003. ヘッセン固有写像:局所線形埋め込み技法 0.64
high-dimensional data. Proceedings of the National Academy of Sciences, 100(10), 5591–5596. 高次元データ。 国立科学アカデミー、100(10)、5591-5596。 0.65
Dudley, Richard Mansfield. ダドリー、リチャード・マンスフィールド。 0.70
1969. The speed of mean Glivenko-Cantelli convergence. 1969. 平均 glivenko-cantelli 収束速度。 0.73
The Annals of Mathe- mathe (複数形 mathes) 0.37
matical Statistics, 40(1), 40–50. 数学統計、40(1)、40-50。 0.76
Efimov, Kirill, Adamyan, Larisa, & Spokoiny, Vladimir. Efimov, Kirill, Adamyan, Larisa, & Spokoiny, Vladimir 0.73
2019. Adaptive nonparametric clustering. 2019. 適応型非パラメトリッククラスタリング。 0.77
IEEE Transactions on Information Theory, 65(8), 4875–4892. IEEE 情報理論に関する取引、65(8)、4875-4892。 0.81
Federer, Herbert. フェデラー、ハーバート。 0.33
1959. Curvature measures. 1959. 曲率測定。 0.72
Transactions of the American Mathematical Society, 93(3), アメリカ数学会の取引(93(3)) 0.58
418–491. Fefferman, Charles, Mitter, Sanjoy, & Narayanan, Hariharan. 418–491. Fefferman, Charles, Mitter, Sanjoy, & Narayanan, Hariharan 0.72
2016. Testing the manifold hypothesis. 2016. 多様体仮説をテストする。 0.73
Journal of the American Mathematical Society, 29(4), 983–1049. 日誌 The American Mathematical Society, 29(4), 983–1049。 0.73
Fefferman, Charles, Ivanov, Sergei, Kurylev, Yaroslav, Lassas, Matti, & Narayanan, Hariharan. Fefferman, Charles, Ivanov, Sergei, Kurylev, Yaroslav, Lassas, Matti, & Narayanan, Hariharan。 0.81
2018. Fitting a putative manifold to noisy data. 2018. 嵌合 ノイズの多いデータに対する仮定多様体。 0.67
Pages 688–720 of: Conference On Learning Theory. 688-720ページ: 学習理論に関する会議。 0.87
PMLR. Fukunaga, Keinosuke, & Olsen, David R. 1971. PMLR。 福永、慶之助、オルセン、デイヴィッドR.1971。 0.66
An algorithm for finding intrinsic dimensionality of data. データの内在的次元性を求めるアルゴリズム 0.71
IEEE Transactions on Computers, 100(2), 176–183. IEEE Transactions on Computers, 100(2), 176–183。 0.87
Gin´e, Evarist, & Nickl, Richard. Gin ́e, Evarist, & Nickl, Richard 0.86
2016. Mathematical foundations of infinite-dimensional statistical models. 2016. 無限次元統計モデルの数学的基礎。 0.80
Cambridge University Press. ケンブリッジ大学出版局。 0.68
Goodfellow, Ian J, Pouget-Abadie, Jean, Mirza, Mehdi, Xu, Bing, Warde-Farley, David, Ozair, SherarXiv preprint Goodfellow, Ian J, Pouget-Abadie, Jean, Mirza, Mehdi, Xu, Bing, Warde-Farley, David, Ozair, SherarXiv 0.90
jil, Courville, Aaron, & Bengio, Yoshua. jil, Courville, Aaron, & Bengio, Yoshua。 0.82
2014. Generative adversarial networks. 2014. 生成的敵ネットワーク。 0.80
arXiv:1406.2661. arXiv:1406.2661。 0.49
Gozlan, Nathael, et al 2009. gozlan, nathael, et al 2009を参照。 0.85
A characterization of dimension free concentration in terms of transportation 交通量からみた次元自由濃度のキャラクタリゼーション 0.66
inequalities. The Annals of Probability, 37(6), 2480–2498. 不平等 Annals of Probability, 37(6), 2480–2498。 0.68
Grassberger, Peter, & Procaccia, Itamar. grassberger, peter, and procaccia, itamar。 0.74
2004. Measuring the strangeness of strange attractors. 2004. 奇妙なアトラクションの奇妙さを計測する。 0.71
Pages 170–189 of: The Theory of Chaotic Attractors. ページ 170–189年:カオス的誘引者の理論。 0.71
Springer. Gray, Alfred. Springer グレイ、アルフレッド。 0.57
2004. Tubes. 2004. チューブ。 0.78
Birkh¨auser Basel. バーク・ザウザー・バーゼル。 0.46
Kantorovich, Leonid Vasilevich, & Rubinshtein, SG. Kantorovich, Leonid Vasilevich, & Rubinshtein, SG 0.73
1958. On a space of totally additive functions. 1958. 完全加法函数の空間上では。 0.78
Vestnik of the St. Petersburg University: Mathematics, 13(7), 52–59. ヴェストニク The St. Petersburg University: Mathematics, 13(7), 52-59。 0.62
K´egl, Bal´azs. 原題はBal ́azs。 0.47
2002. Intrinsic dimension estimation using packing numbers. 2002. パッキング数を用いた固有次元推定 0.77
Pages 681–688 of: NIPS. Citeseer. 681-688頁。 シーザー。 0.37
16 16 0.85
英語(論文から抽出)日本語訳スコア
Kleindessner, Matth¨aus, & Luxburg, Ulrike. Kleindessner, Matth saus, & Luxburg, Ulrike 0.78
2015. Dimensionality estimation without distances. 2015. 距離のない次元推定。 0.82
Pages 471–479 of: Artificial Intelligence and Statistics. ページ 471-479:人工知能と統計学。 0.76
PMLR. Kolmogorov, A. N., & Tikhomirov, V. M. 1993. epsilon-Entropy and epsilon-Capacity of Sets In Functional PMLR。 Kolmogorov, A. N. & Tikhomirov, V. M. 1993. epsilon-Entropy and epsilon-Capacity of Sets In Functionals 0.81
Spaces. Pages 86–170 of: Mathematics and Its Applications. スペース。 86-170頁:数学とその応用。 0.75
Springer Netherlands. Kpotufe, Samory. オランダ出身。 Kpotufe, Samory 0.53
2011. k-NN regression adapts to local intrinsic dimension. 2011 k-NN回帰は局所固有次元に適応する。 0.64
Pages 729–737 of: Proceedings 729-737頁:手続 0.75
of the 24th International Conference on Neural Information Processing Systems. 第24回ニューラル情報処理システム国際会議に参加して 0.80
Kpotufe, Samory, & Dasgupta, Sanjoy. Kpotufe, Samory, & Dasgupta, Sanjoy 0.69
2012. A tree-based regressor that adapts to intrinsic dimension. 2012. 固有次元に適応する木ベースの回帰器。 0.74
Journal of Computer and System Sciences, 78(5), 1496–1515. journal of computer and system sciences, 78(5), 1496–1515 を参照。 0.87
Kpotufe, Samory, & Garg, Vikas K. 2013. Kpotufe, Samory, & Garg, Vikas K. 2013 0.81
Adaptivity to Local Smoothness and Dimension in Kernel Re- カーネル再生における局所平滑性と寸法への適応性 0.57
gression. Pages 3075–3083 of: NIPS. グレッション 3075-3083頁。 0.29
LeCun, Yann, & Cortes, Corinna. LeCun, Yann, & Cortes, Corinna 0.71
2010. MNIST handwritten digit database. 2010. MNISTの手書き桁データベース。 0.83
Lee, John M. 2013. リー、ジョン・M・2013。 0.64
Smooth manifolds. Pages 1–31 of: Introduction to Smooth Manifolds. 滑らかな多様体。 1-31ページ: Smooth Manifoldsの紹介。 0.62
Springer. Levina, Elizaveta, & Bickel, Peter. Springer Levina, Elizaveta, & Bickel, Peter 0.62
2004. Maximum likelihood estimation of intrinsic dimension. 2004. 内在次元の最大度推定。 0.72
Advances in neural information processing systems, 17, 777–784. 進歩 神経情報処理系では17,777-784。 0.69
Liang, Tengyuan. Liang, Tengyuan。 0.79
2018. On how well generative adversarial networks learn densities: Nonparametric and 2018. 生成的敵ネットワークがいかに密度を学ぶか:非パラメトリックおよび非パラメトリック 0.72
parametric results. パラメトリックの結果だ 0.67
arXiv preprint arXiv:1811.03179. arXiv preprint arXiv:1811.03179 0.71
M¨uller, Alfred. アルフレッド(Alfred)。 0.63
1997. Integral probability metrics and their generating classes of functions. 1997. 積分確率メトリクスとその関数のクラスを生成する。 0.84
Advances in Applied Probability, 429–443. 進歩 応用確率 429-443。 0.62
Nakada, Ryumei, & Imaizumi, Masaaki. 中田、龍明、今泉、正明。 0.32
2020. Adaptive Approximation and Generalization of Deep Neural 2020. 深部神経の適応近似と一般化 0.81
Network with Intrinsic Dimensionality. 内在的な次元を持つネットワーク。 0.60
Journal of Machine Learning Research, 21(174), 1–38. Journal of Machine Learning Research, 21(174), 1–38。 0.87
Narayanan, Hariharan, & Mitter, Sanjoy. Narayanan, Hariharan, & Mitter, Sanjoy 0.69
2010. Sample complexity of testing the manifold hypothesis. 2010. 多様体仮説をテストするためのサンプル複雑性。 0.76
Pages 1786–1794 of: Proceedings of the 23rd International Conference on Neural Information Processing Systems-Volume 2. 論文1786-1794: Proceedings of the 23rd International Conference on Neural Information Processing Systems-Volume 2 0.93
Niyogi, Partha, Smale, Stephen, & Weinberger, Shmuel. Niyogi, Partha, Smale, Stephen, & Weinberger, Shmuel 0.72
2008. Finding the homology of submanifolds with 2008. 部分多様体のホモロジーを見つける 0.64
high confidence from random samples. ランダムサンプルからの 高い信頼 0.70
Discrete & Computational Geometry, 39(1-3), 419–441. Discrete & Computational Geometry, 39(1-3), 419–441。 0.90
Niyogi, Partha, Smale, Stephen, & Weinberger, Shmuel. Niyogi, Partha, Smale, Stephen, & Weinberger, Shmuel 0.72
2011. A topological view of unsupervised learning 2011. 教師なし学習のトポロジカルな視点 0.75
from noisy data. ノイズの多いデータから 0.62
SIAM Journal on Computing, 40(3), 646–663. SIAM Journal on Computing, 40(3), 646–663。 0.86
Pettis, Karl W, Bailey, Thomas A, Jain, Anil K, & Dubes, Richard C. 1979. Pettis, Karl W, Bailey, Thomas A, Jain, Anil K, & Dubes, Richard C. 1979 0.84
An intrinsic dimensionality estimator from near-neighbor information. 近傍情報からの固有次元推定器 0.61
IEEE Transactions on pattern analysis and machine intelligence, 25–37. IEEE Transactions on Pattern Analysis and Machine Intelligence, 25-37。 0.88
Roweis, Sam T, & Saul, Lawrence K. 2000. Roweis, Sam T, & Saul, Lawrence K. 2000 0.83
Nonlinear dimensionality reduction by locally linear embedding. 局所線形埋め込みによる非線形次元の低減 0.81
science, 290(5500), 2323–2326. 290(5500), 2323–2326。 0.57
Schreuder, Nicolas, Brunel, Victor-Emmanuel, & Dalalyan, Arnak. Schreuder, Nicolas, Brunel, Victor-Emmanuel, & Dalalyan, Arnak 0.86
2020. Statistical guarantees for generative 2020. 生成の統計的保証 0.86
models without domination. arXiv preprint arXiv:2010.09237. 支配のないモデル。 arXiv preprint arXiv:2010.09237 0.75
Sriperumbudur, Bharath K, Fukumizu, Kenji, Gretton, Arthur, Sch¨olkopf, Bernhard, Lanckriet, Gert RG, et al 2012. Sriperumbudur, Bharath K, Fukumizu, Kenji, Gretton, Arthur, Sch solkopf, Bernhard, Lanckriet, Gert RG, et al 2012 0.84
On the empirical estimation of integral probability metrics. 積分確率メトリクスの経験的推定について 0.65
Electronic Journal of Statistics, 6, 1550–1599. Electronic Journal of Statistics, 6, 1550–1599。 0.94
Steinwart, Ingo, Hush, Don R, Scovel, Clint, et al 2009. Steinwart, Ingo, Hush, Don R, Scovel, Clint, et al 2009 0.77
Optimal Rates for Regularized Least Squares 正規化最小方形に対する最適レート 0.63
Regression. Pages 79–93 of: COLT. 回帰。 79-93頁。 0.46
Tenenbaum, Joshua B, De Silva, Vin, & Langford, John C. 2000. tenenbaum, joshua b, de silva, vin, and langford, john c. 2000を参照。 0.85
A global geometric framework for nonlinear 非線形のための大域的幾何学的枠組み 0.55
dimensionality reduction. science, 290(5500), 2319–2323. 次元の縮小。 290(5500), 2319–2323。 0.61
17 17 0.85
英語(論文から抽出)日本語訳スコア
Uppal, Ananya, Singh, Shashank, & P´oczos, Barnab´as. Uppal, Ananya, Singh, Shashank, & P ́oczos, Barnab ́as 0.90
2019. Nonparametric density estimation & conver- 2019. 非パラメトリック密度推定とコンバー 0.80
gence rates for gans under besov ipm losses. ベッソフipm損失下のgansのゲンスレート。 0.42
arXiv preprint arXiv:1902.03511. arXiv preprint arXiv:1902.03511 0.72
van Handel, Ramon. ヴァン・ハンデル、ラモン。 0.43
2014. Probability in high dimension. 2014. 高次元での確率。 0.80
Tech. rept. PRINCETON UNIV NJ. 技術だ レパート。 PRINCETON UNIV NJ所属。 0.61
Villani, C´edric. ヴィラニ c'edric。 0.66
2008. Optimal transport: old and new. 2008. 最適輸送 - 古くて新しい交通手段。 0.75
Vol. 338. Springer Science & Business Media. Vol。 338. Springer Science & Business Media(英語) 0.80
Weed, Jonathan, Bach, Francis, et al 2019. Weed, Jonathan, Bach, Francis, et al 2019。 0.83
Sharp asymptotic and finite-sample rates of convergence of 鋭い漸近的および有限個の収束率 0.75
empirical measures in Wasserstein distance. ワッサーシュタイン距離における経験的測度。 0.47
Bernoulli, 25(4A), 2620–2648. ベルヌーイ、25(4A), 2620–2648。 0.70
Wu, Yan, Donahue, Jeff, Balduzzi, David, Simonyan, Karen, & Lillicrap, Timothy. Wu, Yan, Donahue, Jeff, Balduzzi, David, Simonyan, Karen, & Lillicrap, Timothy 0.79
2019. Logan: Latent 2019. logan: 潜入 0.71
optimisation for generative adversarial networks. 生成的敵ネットワークの最適化 0.77
arXiv preprint arXiv:1912.00953. arXiv preprint arXiv:1912.00953 0.71
A Proofs from Section 2 Proof of Proposition 12. 第2節からの証明 命題12の証明。 0.62
We apply the method from the classic paper Kolmogorov & Tikhomirov (1993), following notation introduced there as applicable. 古典的論文であるkolmogorov & tikhomirov (1993) からこの手法を適用した。
訳抜け防止モード: 古典的論文 kolmogorov & tikhomirov (1993) の手法を適用した。 以下の表記が適用される。
0.70
For the sake of simplicity, we assume that α is an integer; the generalization to α (cid:54)∈ N is analogous to that in Kolmogorov & Tikhomirov (1993). 単純性のために、α は整数であると仮定し、α (cid:54) ≤ N への一般化はコルモゴロフ&ティホミロフ (1993) のものと類似している。 0.80
Let ∆α = ε 2B and let x1, . α = ε 2b とし、x1, とする。 0.62
. . , xs be a ∆-connected ∆ net on S. For 0 ≤ k ≤ α and 1 ≤ i ≤ s, define . . 0 ≤ k ≤ α と 1 ≤ i ≤ s に対して、定義する。
訳抜け防止モード: . . , xs は 0 ≤ k ≤ α に対して s. 上の s-連結である。 そして 1 ≤ i ≤ s , 定義する
0.81
(cid:37) (cid:36)(cid:12)(cid :12)(cid:12)(cid:12) Dkf (xi)(cid:12)(cid:12) (cid:12)(cid:12) of the covariant derivative. (cid:37) (cid:36)(cid:12)(cid :12)(cid:12)(cid:12) dkf (xi)(cid:12)(cid:12) (cid:12)(cid:12) 共変微分である。 0.67
Let β(f ) =(cid:0)βk i (f )(cid:1) β(f ) =(cid:0)βk i (f )(cid:1) 0.94
βk i (f ) = βk i (f ) = 0.97
εk where ||·|| is the norm on tensors induced by the ambient (Euclidean) metric and Dk is the kth application i (f ) and let Uβ be the set of all f such that β(f ) = β. εk ここで ||·|| は周囲(ユークリッド)計量によって誘導されるテンソルのノルムであり、Dk は k 番目の応用 i (f ) であり、Uβ を β(f ) = β となるすべての f の集合とする。 0.75
Then the argument in the proof of (Kolmogorov & Tikhomirov, 1993, Theorem XIV) applies mutatis mutandis and we note that Uβ are 2ε neighborhoods in the Holder norm. すると (Kolmogorov & Tikhomirov, 1993, Theorem XIV) の証明における議論は mutatis mutandis を適用し、Uβ はホルダーノルムの 2ε 近傍であることに注意する。 0.79
Thus it suffices to bound the number of possible β. したがって、可能な β の個数は有界である。 0.75
As in Kolmogorov & Tikhomirov (1993), we note that the number of possible values for βk 0≤k≤α, there are at most (4e + 2)α+1 values for the next row. Kolmogorov & Tikhomirov (1993) のように、βk 0≤k≤α に対して可能な値の数は、少なくとも次の行に対して (4e + 2)α+1 の値が存在することに注意する。 0.70
Thus the total number of possible β is bounded by したがって、可能なβの総数は有界である 0.84
i,k be the matrix of all βk i,k はすべての βk の行列である 0.68
1 is at most 2B εk 1 は少なくとも 2b εk である 0.55
i εk = ε ∆k 私は εk = ε年。 0.62
(47) (cid:0)(4e + 2)α+1(cid:1)s (47) (cid:0)(4e + 2)α+1(cid:1)s 0.82
α(cid:89) k=1 α(cid:89) k=1 0.71
2B εk = (4e + 2)(α+1)s 2B εk = (4e + 2)(α+1) 0.85
(cid:18) 2B (cid:18)2b 0.68
(cid:19) α 2 (cid:19)α 2 0.82
ε By definition of the covering number and the fact that S is path-connected, we may take ε 被覆数の定義と S がパス連結であるという事実により、我々は取ることができる。 0.75
. Given the row(cid:0)βk (cid:1) α(cid:89) (cid:18) . 行(cid:0)βk (cid:1) α(cid:89) (cid:18) 0.81
= (4e + 2)(α+1)s = (4e + 2)(α+1) 0.99
k=1 2B ε s = N (S, ∆) = N k=1 2B ε s = N (S, s) = N 0.76
S, (cid:16) ε (cid:16) ε sだ (cid:16)ε(cid:16)ε 0.64
2B α (cid:17) k α(cid:19) (cid:17) 1 2B α (cid:17) k α(cid:19) (cid:17) 1 0.81
2B (cid:40) 2B (cid:40) 0.78
a(cid:81)D a(cid:81)D 0.88
(cid:0)1 − x2 (cid:0)1 − x2 0.82
(cid:1) α 2 (cid:1)α 2 0.81
||x||∞ ≤ 1 otherwise (cid:19) ||x||∞ ≤ 1 0.75
(cid:18) x − xi (cid:18) x − xi 0.92
s(cid:88) Taking logarithms and noting that log(4e + 2) ≤ 3 concludes the proof of the upper bound. s(cid:88) 対数を取ることと log(4e + 2) ≤ 3 が上界の証明を結論付けることに注意する。 0.83
The middle inequality is Lemma 3. 中間不平等はLemma 3である。 0.67
For the lower bound, we again follow Kolmogorov & Tikhomirov 下限については、再び Kolmogorov & Tikhomirov に従う。 0.80
(1993). Define (1993). 定義 0.77
functions with a a constant to be set. 機能 一定の値で設定する。 0.60
Choose a 2∆-separated set x1, . 2 つの分離集合 x1, を選択する。 0.54
. . , xss with ∆ =(cid:0) ε . . ε = (cid:0) ε を持つ xss 0.83
ϕ(x) = i=1 φ(x) = i=1 0.72
0 i (cid:1) 1 0 私は (cid:1)1 0.73
2B α and consider the set of 2B α と集合を考える 0.71
(51) where σi ∈ {±1} and σ varies over all possible sets of signs. (51) ここで σi ∈ {±1} と σ は全ての可能な符号の集合上で変化する。 0.70
The results of Kolmogorov & Tikhomirov (1993) guarantee that the gσ form a 2ε-separated set in F if a is chosen such that gσ ∈ F and there are 2s such combinations. Kolmogorov & Tikhomirov (1993) の結果は、gσ ∈ F であるような a が選ばれたとき、gσ が F 内の 2ε 分離集合となることを保証している。 0.70
By definition of packing numbers, we may choose パッキング数の定義により、我々は選択できる 0.77
gσ = i=1 ∆ gσ = i=1 ∆ 0.77
σi∆αϕ This concludes the proof of the lower bound. σiαφ これは下界の証明を結論づける。 0.52
s = D (cid:18) s = D (cid:18) 0.82
(cid:16) ε α(cid:19) (cid:17) 1 (cid:16)ε α(cid:19) (cid:17) 1 0.81
F, B 18 (48) f" B 18 (48) 0.78
(49) (50) (52) (cid:4) (49) (50) (52)(cid:4) 0.87
英語(論文から抽出)日本語訳スコア
Proof of Proposition 9. We note first that the second statement follows from the first by applying (b) and (c) to Proposition 8 to control the curvature and injectivity radius in terms of the reach. 命題9の証明。 まず、第2のステートメントは、(b)と(c)を命題8に適用して、到達点の観点から曲率と射出半径を制御することにより、第1のステートメントから従うことに注意する。 0.57
Furthermore, the middle inequality in the last statement follows from Lemma 3. さらに、最後の文の中間不等式は、Lemma 3から従う。 0.63
Thus we prove the first two statements. したがって、最初の2つのステートメントを証明します。 0.58
A volume argument yields the following control: M,||·||g , r 体積引数は次の制御を与える: m,||·||g, r 0.78
N (cid:17) ≤ N (出典:17)≤ 0.87
(cid:16) vol M (cid:16) vol M 0.82
inf p∈M vol B ε inf p~M vol B ε 0.75
2 (p) (53) 2 (p) (53) 0.85
(p) is the ball around p of radius ε (p) は半径ε の p の周りの球である 0.83
2 with respect to the metric g. Thus it suffices to lower bound where B ε the volume of such a ball. したがって、b ε がそのようなボールの体積であるような下界に十分である。 0.58
Because ε < ι, we may apply the Bishop-Gromov comparison theorem (Gray, 2004, Theorem 3.17) to get that ε < ι であるから、ビショップ・グロモフ比較定理(gray, 2004, theorem 3.17)を適用すればよい。 0.72
2 vol Bε(p) ≥ 2π d 2 vol Bε(p) ≥ 2π d 0.91
2 (cid:1)(cid:90) ε 2 (cid:1)(cid:90)ε 0.80
0 Γ(cid:0) d 0 は (cid:0) d 0.80
2 (cid:32) 2 (cid:32) 0.82
sin(cid:0)t sin(cid:0)t 0.88
√ √ κ1 κ1 (cid:33)d−1 √ √ κ1 κ1 (cid:33)d−1 0.78
(cid:1) dt = ωd (cid:1) dt = ωd 0.86
− 1 κ 1 2 √ sin (t − 1 κ 1 2 sin (複数形 sins) 0.77
κ1) (cid:90) ε κ1) (cid:90)ε 0.84
(cid:16) 0 (cid:16) 0 0.82
(cid:17)d−1 , we have sin(cid:0)t (cid:17)d−1, we have sin(cid:0)t 0.80
dt (54) (cid:1) ≥ dt (54) (cid:1) ≥ 0.85
κ1 √ where κ1 is an upper bound on the sectional curvature. κ1 √ ここで κ1 は断面曲率の上界である。 0.78
We note that for t ≤ π √ 2 2 π t t ≤ π > 2 2 π t について注意する。 0.88
κ1 and thus √ κ1 κ1 なので √ κ1 0.78
(cid:90) ε (cid:18) 2 (cid:90)ε (cid:18)2 0.76
0 π (cid:19)d−1 0 π (cid:19)d−1 0.78
t dt = (cid:18) 2 t dt = (cid:18)2 0.81
(cid:19)d−1 (cid:19)d−1 0.65
ωd d π vol Bε(p) ≥ ωd ωd d π vol Bε(p) ≥ ωd 0.89
εd (55) The upper bound follows from control on the sectional curvature by τ , appearing in (Aamari et al , 2019, Proposition A.1), which, in turn, is an easy consequence of applying the Gauss formula to (a) of Proposition 8.. εd (55) 上界は、(Aamari et al , 2019, Proposition A.1)に現れるτ による断面曲率の制御から導かれる。
訳抜け防止モード: εd (55) 上界は τ による断面曲率の制御から従う。 aamari et al, 2019, proposition a.1)に登場。 これは代わって、命題8の(a) にガウス公式を適用することの簡単な結果である。
0.74
We lower bound the packing number through an analogous argument as the upper bound for the covering number, this time with an upper bound on the volume of a ball of radius ε, again from (Gray, 2004, Theorem 3.17), but this time using a lower bound on the sectional curvature In particular, we have for ε < ι, 我々は、被覆数の上限として、パック数を下限とし、今度は半径 ε のボールの体積上の上限を再び (gray, 2004, theorem 3.17) とするが、この場合は断面曲率の下限を用いると、ε < ι となる。 0.61
(cid:18) sinh (t √−κ2) √−κ2 where κ2 is a lower bound on the sectional curvature. (cid:18) sinh (t ) - κ2 - κ2 ここでκ2 は断面曲率の下限である。 0.74
Note that for t ≤ 1√−κ2 t ≤ 1\-κ2 について注意。 0.56
vol Bε(p) ≤ ωd vol Bε(p) ≤ ωd 0.94
(cid:90) ε (cid:90) ε (cid:90)ε (cid:90)ε 0.79
sin(cid:0)t sin(cid:0)t 0.88
dt = ωd (cid:33)d−1 dt = ωd (cid:33)d−1 0.80
(cid:32) (cid:1) (cid:32) (cid:1) 0.78
√ √ κ2 κ2 0 √ √ κ2 κ2 0 0.82
0 (cid:19)d−1 0 (cid:19)d−1 0.75
, we have If we wish to extend the range of ε, we pay with an exponential constant reflecting the exponential growth of volume of balls in negatively curved spaces. 僕らは ε の範囲を広げたいならば、負の曲面空間における球の体積の指数的な成長を反映した指数定数で支払う。 0.70
In particular, we can apply the same argument and note that as sinh(x) 特に、同じ議論を適用でき、 sinh(x) として注意することができる。 0.76
is increasing, we have x Thus, 増えています x したがって 0.67
The volume argument tells us, that ボリュームの議論は私たちに、そのことを教えてくれます。 0.41
(cid:16) N (cid:16) N 0.82
and the result follows. sinh (t 結果は次の通りです sinh (複数形 sinhs) 0.66
≤ cosh(2)t ≤ 4t ≤cosh(2)t ≤ 4t 0.92
√−κ2) √−κ2 (cid:90) ε (cid:17) ≥ シュ−κ2) シュ−κ2 (cid:90) ε (cid:17) ≥ 0.49
0 vol Bε(p) ≤ ωd 0 vol Bε(p) ≤ ωd 0.90
(4t)d−1dt = (4t)d−1dt = 0.71
ωd d 4dεd M,||·||g , r ωd d 4dεd M,|||||g , r 0.73
vol M supp∈M vol Br(p) vol M suppåM vol Br(p) 0.76
sinh (t sinh (複数形 sinhs) 0.56
√−κ2) √−κ2 √−κ2) √−κ2 0.47
≤ sinh(ι √−κ2) √−κ2 ≤ sinh(ι) √−κ2) √−κ2 0.72
ι t ≤ eι ι ι t ≤ eι ι 0.92
√−κ2 √−κ2 t √−κ2 √−κ2 t 0.62
for all t < ι. すべての t < ι に対して。 0.66
Thus for all ε < ι, we have したがって、すべてのε < ι に対して 0.78
N (M,||·||g , ε) ≥ vol M ωd N (M,|||||g , ε) ≥ vol M ωd 0.91
dιd(−κ2) as desired. dιd(−κ2) 望み通りだ 0.50
19 d 2 e−dι 19 d 2e−dι 0.73
√−κ2 ε−d dt シュ−κ2 ε−d dt 0.56
(56) (57) (58) (56) (57) (58) 0.85
(59) (60) (61) (59) (60) (61) 0.85
(cid:4) (cid:4) 0.78
英語(論文から抽出)日本語訳スコア
(p) be the set of points in RD with Euclidean distance to p less than ε and ε (p) be the set of points in M with intrinsic (geodesic) distance to p less than ε. (p) ユークリッド距離が ε より小さい RD の点の集合と ε (p) は、固有(測地)距離が ε より小さい M の点の集合である。 0.62
Then, if ε ≤ 2τ , このとき、ε ≤ 2τ , 0.76
Proof of Corollary 10. Let B let BM combining the fact that straight lines are geodesics in RD and (d) from Proposition 8 gives 第10巻に登場。 B を RD における直線が測地線であるという事実と、(d) が命題 8 から与えるという事実を BM と組み合わせる。
訳抜け防止モード: 第10巻に登場。 B は RD における直線が測地学であるという事実を BM と組み合わせる 命題 8 の (d ) は
0.51
RD ε In particular, this implies RD ε 特にこれは 0.64
N D (cid:16) (cid:16) N D (cid:16)(cid:16) 0.81
RD ε ε (p) ⊂ B BM (cid:16) ε (cid:16) ε RD ε ε (p) = B BM (cid:16) ε (cid:16) ε 0.87
2τ (p) ∩ M ⊂ BM 2τ (p)「M」は「BM」である 0.62
2τ )(p) 2τ arcsin( ε 2τ(p) 2τアルキシン(ε) 0.64
(cid:17)(cid:17) ≤ N (M,||·|| , ε) ≤ N (M, dM , ε) (cid:17)(cid:17) ≤ D(M,||·|| , ε) ≤ D(M, dM , ε) (cid:17)(cid:17) ≤ N (M,|·|| , ε) ≤ N (M, dM , ε) (cid:17)(cid:17) ≤ D(M,|·|| , ε) ≤ D(M, dM , ε) 0.95
M, dM , 2τ arcsin M, dM , 2τ arcsin 0.97
M, dM , 2τ arcsin M, dM , 2τ arcsin 0.97
2τ whenever ε ≤ 2τ . 2τ ε ≤ 2τ である。 0.71
Thus, applying Proposition 9, we have したがって、命題9を適用する。 0.71
N (M,||·|| , ε) ≤ N (M, dM , ε) ≤ vol M ωd N (M,||||| , ε) ≤ N (M, dM , ε) ≤ vol M ωd 0.85
ε−d and similarly, τ using the fact that arcsin(x) ≤ 2x for x ≥ 0. ε−d 同様に τ は x ≥ 0 に対して arcsin(x) ≤ 2x であるという事実を用いている。 0.61
The result follows. 結果は次のようになる。 0.53
D(M,||·|| , 2ε) ≥ D D(M,||||| , 2ε) ≥ D 0.85
M, dM , 2τ arcsin M, dM , 2τ arcsin 0.97
d16−dε−d (cid:16) d16−dε−d (cid:16) 0.54
d (cid:17)d (cid:16) π (cid:17)(cid:17) ≥ vol M d (cid:17)d (cid:16)π (cid:17)(cid:17) ≥ vol M 0.83
2 ωd (cid:16) ε 2 ωd (cid:16)ε 0.81
(62) (63) (64) (62) (63) (64) 0.85
(65) (66) (cid:4) (65) (66)(cid:4) 0.88
B Proof of Theorem 21 We first prove the following lemma on the concentration of W1(Pn, P (cid:48) n). B 定理21の証明 我々はまず、W1(Pn, P (cid:48) n) の濃度について以下の補題を証明する。 0.70
Lemma 25. Suppose that P is a probability measure on (T, d) and that it satisfies a T2(c2)-inequality. 背番号25。 P を (T, d) 上の確率測度とし、T2(c2)-不等式を満たすとする。 0.69
Let X1, . . . , Xn, X(cid:48) n. Then the following inequalities hold: X1 を。 . . , xn, x(cid:48) n. すると、以下の不等式が成り立つ。 0.75
n denote independent samples with corresponding empirical distributions Pn, P (cid:48) n は、対応する経験分布 Pn, P (cid:48) 0.67
1, . . . , X(cid:48) 1, . . . , X(cid:48) 0.86
P (|W1(Pn, P (cid:48) P (|W1(Pn, P (cid:48) P (|W1(Pn, P (cid:48) P (|W1(Pn, P (cid:48)) 0.82
n) − E [W1(Pn, P (cid:48) n) − E [W1(Pn, P (cid:48) n) − E [W1(Pn, P (cid:48) n) − E [W1(Pn, P (cid:48) 0.96
n)]| ≥ t) ≤ 2e n)]| ≤ t) ≤ 2e n)]| ≥ t) ≤ 2e n)]| ≤ t) ≤ 2e である。 0.88
− nt2 8c2 2 − nt2 8c2 2 0.74
− nt2 8c2 2 − nt2 8c2 2 0.74
(67) (68) Proof. (67) (68) 証明。 0.77
We note that by Gozlan et al (2009), in particular the form of the main theorem stated in (van Handel, 2014, Theorem 4.31), it suffices to show that, as a function of the data, W1(Pn, P (cid:48) n -Lipschitz. 我々は、Gozlan et al (2009)、特に(van Handel, 2014 Theorem 4.31)で述べられている主定理の形式は、データの関数として、W1(Pn, P (cid:48) n-Lipschitz であることを示すのに十分である。 0.83
Note that by symmetry, it suffices to show a one-sided inequality. 対称性により、片面の不等式を示すのに十分である。 0.62
By the triangle inequality, 三角形の不等式によって 0.57
n) is 2√ n) は 2 である 0.62
n) ≤ W1(Pn, µ) + W1(P (cid:48) 1√ n -Lipschitz in the Xi. n) ≤ W1(Pn, μ) + W1(P (cid:48) 1 = n -Lipschitz in the Xi。 0.88
By (van Handel, for any measure µ and thus it suffices to show that W1(Pn, µ) is 2014, Lemma 4.34), there exists a bijection between the set of couplings between Pn and µ and the set of ordered n-tuples of measures µ1, . 任意の測度 μ に対して、W1(Pn, μ) が 2014 であることを示すのに十分である(Lemma 4.34)ので、Pn と μ の間の結合の集合と測度 μ1 の順序 n-タプルの集合の間には双対が存在する。 0.84
. . , µn such that µ = 1 n then . . , μn で μ = 1 n となるもの 0.88
W1(Pn, P (cid:48) W1(Pn, P:48) 0.89
n, µ) (69) n, μ) (69) 0.85
W1(Pn, µ) − W1((cid:101)Pn, µ) ≤ W1(Pn, μ) − W1((cid:101)Pn, μ) ≤ 0.96
≤ = 1 n 1 n ≤ 1 n ≤ = 1 n 1 n ≤ 1 n 0.85
The identical argument applies to W M 1 . 同じ引数が w m 1 に適用される。 0.69
1 n (cid:80) i µi. 1n (cid:80)i μi。 0.72
Thus we see that if X, (cid:101)X are two data sets, (cid:34) (cid:90) (cid:16) (cid:17) n(cid:88) d(Xi, y) − d((cid:101)Xi, y) (cid:34) (cid:35) (cid:90) n(cid:88) d(Xi, (cid:101)Xi)dµi(y) d(Xi, (cid:101)Xi) n(cid:88) d(Xi, (cid:101)Xi)2 ≤ 1√ したがって、X が (cid:34) (cid:90) (cid:16) (cid:17) (cid:88) d(Xi, y) − d((cid:101)Xi, y) (cid:34) (cid:35) (cid:90) n(cid:88) d(Xi, (cid:101)Xi)dμi(y) d(Xi, (cid:101)Xi) n(cid:88) d(Xi, (cid:101)Xi) 2 ≤ 1 ≤ 1 である。 0.91
d⊗n(X, (cid:101)X) dn(X, (cid:101)X) 0.91
dµi(y) (cid:35) dμi(y) (cid:35) 0.81
(72) (71) (70) (72) (71) (70) 0.85
(73) 1 n i=1 (73) 1n i=1 0.73
i=1 sup i=1 µi=µ i=1 sup i=1 μi=μ 0.56
1 n sup i=1 µi=µ 1n sup i=1 μi=μ 0.64
(cid:80)n (cid:80)n (cid:88) (cid:118)(cid:117)(c id:117)(cid:116)n (cid:80)n (cid:80)n (cid:88) (cid:118)(cid:117)(c id:117)(cid:116)n 0.75
n (cid:4) i=1 n (cid:4) i=1 0.74
20 20 0.85
英語(論文から抽出)日本語訳スコア
Proposition 26. Suppose we are in the situation of Theorem 21 and we have 背番号26。 定理21の状況にあると仮定すると、我々はそうする。 0.56
We are now ready to show that (cid:98)dn is a good estimator of d. (cid:18) 現在、 (cid:98)dn が d. (cid:18) のよい推定器であることを示す準備ができています。 0.56
(cid:19)−d (cid:19)−d 0.74
(cid:32)(cid:18) (cid:32)(cid:18) vol M (cid:32)(cid:18) (cid:32)(cid:18) vol M 0.77
vol M 4ωd γ vol M 4ωd γ 0.82
d8dι (cid:19) d+2 d8dι (cid:19)d+2 0.55
2β n ≥ max 2β n ≥ max 0.82
α ≥ max , 8c2 α ≥ max , 8c2 0.76
2 log 1 ρ (cid:33) ログ2 1 ρ (cid:33) 0.77
, γ 1 β , (log n) , γ 1 β , (log n) 0.85
d 2β 2d−5(cid:33) (cid:19) d d2β 2d−5(cid:33) (cid:19) d 0.73
4ωd Then with probability at least 1 − 4ρ, we have 4ωd 確率が少なくとも 1 − 4ρ であれば、我々は 0.79
Proof. By Proposition 19 and Lemma 25, we have that with probability at least 1 − e 証明。 命題 19 と Lemma 25 により、少なくとも 1 − e の確率を持つものが存在する。 0.70
(74) (75) (76) (74) (75) (76) 0.85
(77) − nt2 8c2 (77) − nt2 8c2 0.76
2 , we have By Proposition 18 and Lemma 25 and the left hand side of Proposition 19, we have that with probability at least 1 − e 2... 命題 18 と Lemma 25 と命題 19 の左辺により、少なくとも 1 − e の確率を持つものが存在する。 0.60
− αnt2 8c2 2 , αnt2 8c2 2 , 0.66
all under the assumption that 全ては 仮定のもとに 0.65
Setting t = n− 5 t = n− 5 の設定 0.79
4d , we see that, as α > 1, with probability at least 1 − 2e 4d は α > 1 であり、確率は少なくとも 1 − 2e である。 0.81
2 , we simultaneously have d 1 + 3β 2つ同時に d 1 + 3β 0.78
≤ (cid:98)dn ≤ (1 + 3β)d (cid:114) vol M (cid:17) d 2(cid:112)log nn− 1 ≤ (cid:98)dn ≤ (1 + 3β)d (cid:114) vol M (cid:17) d 2 (cid:112)log nn− 1 0.87
(cid:16) π dωd (cid:16)π dωd 0.68
2 d + t W M 2 d + t W M 0.85
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
n) ≤ C∆ W M n) ≤ C W M 0.79
1 (Pαn, P (cid:48) 1 (Pαn, P (cid:48) 0.81
(αn)− 1 d − t (αn)− 1 d − t 0.92
(cid:18) 4ωd (cid:18)4ωd 0.62
γd volM d (cid:19) 1 (cid:19)−d γd VolM d (cid:19) 1 (cid:19)−d 0.81
γ vol M 4ωd γ vol M 4ωd 0.82
d8dι αn) ≥ 1 32 (cid:18) d8dι αn) ≥ 1 32 (cid:18) 0.68
n ≥ (cid:114) vol M (cid:18) 4ωd n ≥ (cid:114) vol M (cid:18) 4ωd 0.79
dωd γd volM dωd γd VolM 0.71
− nt2 8c2 (cid:17) d (cid:16) π 2(cid:112)log nn− 1 (cid:19) 1 − nt2 8c2 (cid:17) d (cid:16) π 2 (cid:112)log nn− 1 (cid:19) 1 0.74
2 d d (αn)− 1 2 d d (αn)− 1 0.89
d W M 1 (Pn, P (cid:48) d W M 1 (Pn, P (cid:48) 0.89
n) ≤ C∆ W M n) ≤ C W M 0.79
αn) ≥ 1 1 (Pαn, P (cid:48) 64 (cid:113) vol M (cid:1) d (cid:0) π (cid:17) 1 (cid:16) 4ωd αn) ≥ 1 1 (Pαn, P (cid:48) 64 (cid:113) vol M (cid:1) d (cid:0) π (cid:17) 1 (cid:16) 4ωd 0.79
√ dωd 2 d 2 √ dωd 2 d 2 0.80
1 64 γd volM 1 64 γd VolM 0.84
≤ C∆ log nn− 1 (αn)− 1 ≤C。 log nn− 1 (αn)− 1 0.83
d d Thus, in particular, d d ですから特に 0.71
1 (Pn, P (cid:48) W M n) 1 (Pαn, P (cid:48) W M αn) 1 (Pn, P (cid:48) W M n) 1 (Pαn, P (cid:48) W M αn) 0.92
(cid:18) vol M (cid:18) vol M 0.88
4ωd = Cγ 1 d 4ωd =Cγ 1d 0.70
(cid:19) 1 2 + 1 (cid:19)1 2 + 1 0.82
d(cid:16) π d(cid:16) π 0.88
(cid:17) d 2(cid:112)log nα− 1 (cid:17) d 2(cid:112)log nα− 1 0.78
d 2 Thus we see that d 2 だから私たちは 0.78
(cid:98)dn = (cid:98)dn = 0.88
≥ = log α log W1(Pn,P (cid:48) n) W1(Pαn,P (cid:48) αn) ≥ = ログα log W1(Pn,P (cid:48) n) W1(Pαn,P (cid:48) αn 0.81
2 log log n +(cid:0) 1 2 log log n +(cid:0) 1 0.98
log α 2 + 1 log α 2 + 1 0.85
d (cid:1) log d (cid:1)ログ 0.82
(cid:16) vol M (cid:16) vol M 0.88
(cid:17) 4ωd (cid:17) 4ωd 0.69
+ 1 d log(γC) + 1 d log(γc) 0.91
1 d log α + 1 1 d log α + 1 0.85
d 2 log log n+ d+2 d2 log log n+ d+2 0.79
2 d log vol M 4ωd 2 d log vol M 4ωd 0.85
log α 1 + +log(γC) ログα 1 + +log(γC) 0.80
21 (78) (79) 21 (78) (79) 0.85
(80) (81) (82) (80) (81) (82) 0.85
(83) (84) (85) (83) (84) (85) 0.85
英語(論文から抽出)日本語訳スコア
Now, if n ≥ max さて、もしも n ≥ max 0.74
α ≥ max Then with probability at least 1 − 2ρ, α ≥ max 確率は少なくとも 1 − 2ρ である。 0.82
2d−5(cid:33) (cid:19) d 2d−5(cid:33) (cid:19) d 0.66
(cid:19)−d (cid:19)−d 0.74
(cid:18) , (cid:18) , 0.82
8c2 2 log , γ 8c2 ログ2 , γ 0.71
1 β , (log n) 1 β , (log n) 0.85
d 2β 1 ρ (cid:33) d2β 1 ρ (cid:33) 0.81
d8dι γ vol M 4ωd d8dι γ vol M 4ωd 0.70
(cid:32)(cid:18) (cid:32)(cid:18) vol M (cid:98)dn ≥ (cid:32)(cid:18) (cid:32)(cid:18) vol M (cid:98)dn ≥ 0.78
4ωd (cid:19) d+2 4ωd (cid:19)d+2 0.61
2β d 1 + 3β 2β d 1 + 3β 0.86
An identical proof holds for the other side of the bound and thus the result holds. 同一の証明は、境界の反対側に対して保持され、その結果は保持される。 0.64
We are now ready to prove the main theorem using Proposition 26 and Proposition 22. 現在、命題26と命題22を用いて主定理を証明する準備ができている。 0.60
Proof of Theorem 21. Note first that 定理21の証明。 まず注意。 0.64
w (cid:18) W (cid:18) 0.75
N M, dM , (cid:19) (cid:19) N m, dm. (cid:19)(cid:19) 0.73
(cid:18) ιλ2 (cid:18) ιλ2 0.65
8 ιλ2 8 ≤ γ 8 ιλ2 8 ≤ γ 0.80
d ωd ≤ vol M ωd d ωd ≤ vol M ωd 0.92
(cid:16) τ (cid:17)−d (cid:16)τ (cid:17)−d 0.77
16π (cid:16) π 16π (cid:16)π 0.78
2 8 (cid:17)d(cid:18) ιλ2 (cid:19)−d (cid:19)−d (cid:17)d(cid:18) ιλ2 (cid:16) π (cid:18) vol M (cid:17)−d(cid:19) (cid:16) τ 2 8 (cid:17)d(cid:18) ιλ2 (cid:19)−d (cid:19)−d (cid:17)d(cid:18) ιλ2 (cid:16) π (cid:18) vol M (cid:17)−d(cid:19) τ 0.82
2 8 d log d 2 8 d ログ d 0.82
ρωd 16π by Proposition 9. ρωd 16π 背番号9。 0.60
Setting λ = 1 2 , we note that by Proposition 22, if the total number of samples λ = 1 の設定 2,本項では,サンプルの総数について,命題22で記す。 0.83
d ωd then with probability at least 1 − ρ, we have d ωd ならば、少なくとも 1 − ρ の確率で、 0.81
2(α + 1)n ≥ γ 2(α + 1)n ≥ γ 0.85
dM (p, q) ≤ dG(p, q) ≤ 3 2 for all p, q ∈ M . すべての p, q ∈ M に対して dM (p, q) ≤ dG(p, q) ≤ 3 2 である。 0.91
Thus by the proof of Proposition 26 above, したがって、上記の命題26の証明により。 0.66
1 2 dM (p, q) 1 2 dM (p, q) 0.85
Thus as long as α ≥(cid:16) 1+λ したがって α ≥(cid:16) 1+λ である限り 0.79
(cid:17) d β (cid:17)d β 0.83
1−λ 1 (Pn, P (cid:48) W M n) 1 (Pαn, P (cid:48) W M αn) 1−λ 1 (Pn, P (cid:48) W M n) 1 (Pαn, P (cid:48) W M αn) 0.75
≤ 1 + λ 1 − λ ≤ 1 + λ 1 − λ 0.85
Cγ 1 d (cid:18) vol M Cγ 1d (cid:18) vol M 0.78
(cid:19) 1 2 + 1 (cid:19)1 2 + 1 0.82
d(cid:16) π d(cid:16) π 0.88
(cid:17) d 2(cid:112)log(2∆n)α− 1 (cid:17) d 2(cid:112)log(2,n)α− 1 0.79
d 4ωd 2 = 3 d 4ωd 2 = 3 0.78
d β , then we have with probability at least 1 − 3ρ, d β ならば、少なくとも 1 − 3ρ の確率を持つ。 0.84
(cid:101)dn ≥ (cid:101)dn ≥ 0.88
d 1 + 4β (86) d 1 + 4β (86) 0.88
(87) (88) (cid:4) (87) (88)(cid:4) 0.88
(89) (90) (91) (89) (90) (91) 0.85
(92) (93) (94) (92) (93) (94) 0.85
(95) A similar computation holds for the lower bound. (95) 同様の計算は下限に対しても成り立つ。 0.78
To prove the result for dn, note that if we replace the ιs by τ in Equation (89) and (90) then the result still holds by the second part of Proposition 9. dn の結果を証明するために、方程式 (89) と (90) において ιs を τ で置き換えるならば、命題 9 の第二部分によって結果が保たれることに注意する。 0.78
Then the identical arguments apply, mutatis mutandis, after (cid:4) skipping the step of approximating dM by dG. そして、同じ引数が適用される: mutandis, after (cid:4) dg で dm を近似するステップをスキップする。 0.70
C Metric Estimation Proofs In order to state our result, we need to consider the minimal amount of probability mass that P puts on any intrinsic ball of a certain radius in M . c メトリック推定証明 我々の結果を述べるためには、p が m 内のある半径の任意の内在球に与える最小の確率質量を考える必要がある。 0.77
To formalize this notion, we define, for δ > 0, この概念を形式化するために、 δ > 0 に対して定義する。 0.72
We need a few lemmata: いくつかの補題が必要です 0.57
1 w(δ) = inf p∈M 1 w(δ) = inf p・M 0.77
P(cid:0)BM δ (p)(cid:1) P(cid:0)BM δ (p)(cid:1) 0.90
22 22 0.85
英語(論文から抽出)日本語訳スコア
Lemma 27. Fix ε > 0 and a set of xi ∈ M and form G(x, ε). 背番号27。 ε > 0 と xi ∈ M の集合を固定し、G(x, ε) を形成する。 0.69
If the set of xi form a δ-net for M such that δ ≤ ε xi の集合が δ ≤ ε となる m に対して δ-ネットを形成するとき 0.82
4 , then for all x, y ∈ M , 4 , ならばすべての x, y ∈ m , 0.84
(cid:18) (cid:19) (cid:18) (cid:19) 0.78
dM (x, y) (96) dM (x, y) (96) 0.85
dG(x, y) ≤ dG(x, y) ≤ 0.85
1 + 4δ ε Proof. 1 + 4δ ε 証明。 0.78
This is a combination of (Bernstein et al , 2000, Proposition 1) and (Bernstein et al , 2000, Theorem (cid:4) 2). これは (Bernstein et al , 2000, Proposition 1) と (Bernstein et al , 2000, Theorem (cid:4) 2) の組合せである。 0.87
Lemma 28. Let 0 < λ < 1 and let x, y ∈ M such that ||x − y|| ≤ 2τ λ(1 − λ). 28歳。 0 < λ < 1 とし、x, y ∈ M を ||x − y|| ≤ 2τ λ(1 − λ) とする。 0.73
Then (1 − λ)dM (x, y) ≤ ||x − y|| ≤ dM (x, y) そして (1 − λ)dM (x, y) ≤ ||x − y|| ≤ dM (x, y) 0.86
(97) 2 so we are in the situation of Proposition 8 (e). (97) 2 なので、我々は命題8(e)の状況にあります。 0.75
Let (cid:96) = dM (x, y). cid:96) = dM (x, y) とする。 0.90
Rearranging Proof. Note that 2τ λ(1−λ) ≤ τ the bound in Proposition 8 (e) yields 再編成 証明。 2τ λ(1−λ) ≤ τ が命題 8 (e) における有界であることに注意。 0.61
Thus it suffices to show that このようにして示すのに十分です 0.51
Again applying Proposition 8, we see that 再び Proposition 8 を適用します。 0.70
(cid:96) (cid:18) (cid:96) (cid:18) 0.78
(cid:19) 1 − (cid:96) 2τ (cid:19) 1 − (cid:96) 2τ 0.80
≤ ||x − y|| ≤ (cid:96) ≤ ||x − y|| ≤ (cid:96) 0.71
(cid:96) 2τ (cid:96)2τ 0.68
(cid:114) (cid:32) (cid:114) (cid:32) 0.78
1 − ≤ λ (cid:33) 1 − ≤ λ (cid:33) 0.83
1 − 2||x − y|| 1 − 2|x − y|| 0.70
τ (cid:96) ≤ τ τ (cid:96) ≤ τ 0.87
(98) (99) (100) (98) (99) (100) 0.85
(cid:4) (yi) is (cid:4) (yi)は 0.79
(101) (102) (101) (102) 0.85
Rearranging and plugging in ||x − y|| ≤ 2τ λ(1 − λ) concludes the proof. ||x − y|| ≤ 2τ λ(1 − λ) の再配置とプラグは証明を終わらせる。 0.70
The next lemma is a variant of (Niyogi et al , 2008, Lemma 5.1). 次の補題は (Niyogi et al , 2008 Lemma 5.1) の変種である。 0.77
we sample n ≥ w(cid:0) δ サンプル n ≥ w(cid:0) δ 0.82
2 form a δ-net of M . 2 は M のδ-ネットを形成する。 0.66
(cid:1) log ρ (cid:1)ログ ρ 0.82
Lemma 29. Let w(δ) be as in Proposition 22 and let N (M, δ) be the covering number of M at scale δ. 背番号29。 w(δ) を命題 22 で、N(M, δ) をスケール δ における M の被覆数とする。 0.61
If points independently from P, then with probability at least 1 − ρ, the points P から独立して点を採ると、確率が少なくとも 1 − ρ であれば、点は 0.75
N(M, δ 2 ) N(M, δ 2 ) 0.85
Proof. Let y1, . 証明。 y1 とする。 0.64
. . , yN be a minimal δ bounded by 1 − 1 w( δ 2 ) . . , yN は 1 − 1 w( δ 2 ) で有界な最小の δ である。 0.85
by definition. By independence, we have 定義によって 独立によって、我々は 0.75
2 -net of M . 2-net of m である。 0.59
For each yi the probability that xi is not in B δ 各yi に対して xi が B δ に含まれない確率 0.85
2 By a union bound, we have 2 組合の結束によって、我々は 0.79
(cid:32) P(cid:16)∀i xj (cid:54)∈ B δ (cid:17) ≤ P(cid:16)∃i such that ∀j xj (cid:54)∈ B δ (cid:32) P(cid:16)-i xj (cid:54)-B δ (cid:17) ≤ P(cid:16)-i {\displaystyle P(cid:54)-B δ} 0.79
(yi) 2 (cid:1)(cid:33)n w(cid:0) δ (cid:18) (cid:17) ≤ N (yi) 2 (cid:1)(cid:33)n w(cid:0) δ (cid:18) (cid:17) ≤ N 0.83
2 (yi) 2 M, 2 (yi) 2 m" 0.76
1 − 1 − n w( δ 1 − 1 −n w( δ) 0.90
2 ) ≤ e (cid:19) 2 ) ≤e (cid:19) 0.78
δ 2 − n w( δ δ 2 −n w( δ) 0.90
2 ) e If n satisfies the bound in the statement then the right hand side Eq (102) is controlled by ρ. 2 ) E n が文の境界を満たすなら、右辺 Eq (102) は ρ によって制御される。 0.74
(cid:4) Note that for any measure P, a simple union bound tells us that w(δ) ≤ N (M, δ) and that equality, up to a constant, is achieved for the uniform measure. (cid:4)任意の測度 P に対して、単純な合同境界は w(δ) ≤ N (M, δ) であり、一様測度に対して等しい値が与えられることを言う。
訳抜け防止モード: ( cid:4 ) 任意の測度 P に対して、単純な合同境界は w(δ ) ≤ N ( M, δ ) であることを示すことに注意。 その平等は 一定まで 均一な尺度で達成されます
0.80
This is within a log factor of the obvious lower bound given by the covering number on the number of points required to have a δ-net on M . これは m 上の δ-ネットを持つのに必要な点の数の被覆数によって与えられる明らかな下界の対数である。 0.74
With these lemmata, we are ready to conclude the proof: Proof of Proposition 22. これらのレマタでは、証明を結論する準備が整っている: 命題22の証明。 0.66
Let ε = τ λ ≤ 2τ λ(1 − λ) by λ ≤ 1 4 . Let ε = τ λ ≤ 2τ λ(1 − λ) by λ ≤ 1 4 . 0.89
By Lemma 29, with high probability, the xi form a δ-net on M ; thus for the rest of the proof, we fix a set of xi such that this condition holds. Lemma 29 は高い確率で xi が M 上のδ-ネットを形成するので、証明の残りの部分は、この条件が成立するように xi の集合を固定する。 0.77
Now we may apply Lemma 27 to yield the upper bound dG(x, y) ≤ (1 + λ)dM (x, y). このとき、上界 dg(x, y) ≤ (1 + λ)dm (x, y) を得るために補題 27 を適用することができる。 0.74
2 . Let δ = λε 2 . δ = λε とする。 0.74
4 = τ λ2 23 4 = τ λ2 23 0.92
英語(論文から抽出)日本語訳スコア
For the lower bound, for any points p, q ∈ M there are points xj0 , xjm such that dM (p, xj0) ≤ δ and dM (q, xjm ) ≤ δ by the fact that the xi form a δ-net. 下限に対して、任意の点 p, q ∈ m に対して、点 xj0 , xjm が存在し、これは dm (p, xj0) ≤ δ と dm (q, xjm ) ≤ δ が xi が δ-net であるという事実によって成り立つ。 0.79
Let xj1, . . xj1 とする。 . 0.78
. , xjm−1 be a geodesic in G between xj0 and xjm. . , xjm−1 は G の xj0 と xjm の間の測地線である。 0.74
By Lemma 28 and the fact that edges only exist for small weights, we have 補題28までには、エッジは小さい重みにのみ存在するという事実は、 0.73
dM (p, q) ≤ dM (p, xj0) + dM (xjm, q) + dM (p, q) ≤ dM (p, xj0) + dM (xjm, q) + 0.89
(cid:32) ||p − xj0|| + ||xjm − q|| + (cid:32) ||p − xj0|| + ||xjm − q|| + 0.61
dM i=1 ≤ (1 − λ)−1 = (1 − λ)−1dG(p, q) dM i=1 ≤ (1 − λ)−1 = (1 − λ)−1dG(p, q) 0.81
m(cid:88) (cid:0)xji−1 , xji m(cid:88) m(cid:88) (cid:0)xji−1,xjim(cid:88) 0.80
(cid:1) (cid:12)(cid:12)(cid :12)(cid:12)xji−1 − xji (cid:1) (cid:12)(cid:12)(cid :12)(cid:12)xji−1 − xji 0.72
i=1 (cid:12)(cid:12)(cid :12)(cid:12)(cid:33) i=1 (cid:12)(cid:12)(cid :12)(cid:33) 0.74
(103) (104) (103) (104) 0.85
(105) (cid:4) (105)(cid:4) 0.91
Rearranging concludes the proof. 再配置は証拠を確定する。 0.54
D Miscellany D Miscellany 0.85
Proof of Lemma 15. By symmetrization and chaining, we have レンマ15の証明。 シンメトリゼーションと連鎖によって、私たちは 0.57
(cid:34) n(cid:88) (cid:34) n(cid:88) 0.81
i=1 E sup f∈F i=1 E sup fvcf 0.66
1 n f (Xi) − f (X(cid:48) i) 1n f (Xi) − f (X(cid:48) i) 0.86
≤ 2E sup f∈F ≤2E sup fvcf 0.69
1 n (cid:35) 1n (cid:35) 0.77
(cid:34) n(cid:88) (cid:34) n(cid:88) 0.81
i=1 (cid:35) (cid:114) (cid:114) i=1 (cid:35) (cid:114) (cid:114) 0.66
εif (Xi) εif (複数形 εifs) 0.40
(cid:90) 1 (cid:90) 1 (cid:90)1(cid:90)1 0.76
δ δ √ 2√ 8 n √ 2√ 8 n δ δ 八・二・八・八・二・八・二・八 0.67
(cid:34) (cid:34) (cid:34)(cid:34) 0.72
≤ 2B inf δ>0 ≤ 2B inf δ>0 0.90
≤ 2B inf δ>0 ≤ 2B inf δ>0 0.90
8δ + 8δ + ≤ 2 inf 8δ + 8δ + ≤ 2 inf 0.87
δ>0 8δ + √ 2√ 8 n δ>0 8δ + ~2~8n 0.72
(cid:34) (cid:16) (cid:34)(cid:16) 0.72
log N F,||·||∞ , log N f,||·|∞ である。 0.80
ε 2R dε 3α2 log ε2R dε 3α2 ログ 0.75
N (S,||·|| , ε)dε N (S,||·|| , ε)dε 0.85
1 ε (cid:90) B (cid:17) 1 ε (cid:90)b(cid:17) 0.81
δ (cid:35) (cid:113) log N (F,||·||∞ , ε)dε (cid:35) (cid:35) δ (cid:35) (cid:113) log N (F,||||∞ , ε)dε (cid:35) (cid:35) 0.86
(106) (107) (106) (107) 0.85
where the last step follows from Proposition 12. 最後のステップは 命題12から続きます 0.61
The first statement follows from noting that decreasing in ε, and thus allowing it to be pulled from the integral. 最初の言明は ε の減少を指摘し、積分から取り出すことを許すことから従う。
訳抜け防止モード: 最初の声明は次の通りである。 ε を減少させ、積分から取り出すことを可能にすること。
0.78
If α > d from plugging in δ = 0 and recovering a rate of n− 1 plugging in δ = n− α d . α > d が δ = 0 をプラグし、δ = n− α d をプラグする n− 1 のレートを回収する。 0.84
ε is 2 , the second statement follows 2 , then the second statement follows from (cid:4) ε は 2 で、第二のステートメントは 2 で、第二のステートメントは (cid:4) から続く。 0.70
2 . If α < d 2 . α < d の場合 0.88
log 1 Proof of Proposition 18. log 1 命題18の証明。 0.70
We follow the proof of (Weed et al , 2019, Proposition 6) and use their notation. 我々は(weed et al , 2019, proposition 6)の証明に従い、それらの表記を用いる。 0.76
In particular, let (cid:18) 特に、 (cid:18) 0.56
(cid:19) (cid:26) (cid:19) (cid:26) 0.78
Nε P, 1 2 = inf Nε P。 1 2 =inf 0.75
N (S, dM , ε)|S ⊂ M and P(S) ≥ 1 2 N (S, dM , ε)|S > M および P(S) ≥ 1 2 0.87
(cid:27) Applying a volume argument in the identical fashion to Proposition 9, but lower bounding the probability of a ball of radius ε by 1 (cid:27) 体積論を命題9と同じ方法で適用するが、半径 ε の球の確率を 1 で下限にする 0.75
γ multiplied by the volume of said small ball, we get that γはその小さなボールの体積に乗じて 0.50
if ε ≤ τ . ε ≤ τ である。 0.75
Let and assume that Let いくぞ 仮定すると いくぞ 0.47
(cid:18) (cid:19) (cid:18) (cid:19) 0.78
P, (cid:18) P。 (cid:18) 0.75
Nε ε = 1 2 Nε ε = 1 2 0.83
≥ γ vol M 2ωd ≥ γ vol M 2ωd 0.82
d8−dε−d d (cid:19)− 1 (cid:19)−d d8−dε−d d (cid:19)− 1 (cid:19)−d 0.64
n− 1 d γ vol M 4ωd n-1 d γ vol M 4ωd 0.78
d8−d (cid:18) d8−d (cid:18) 0.63
n > γ d8dτ S = n> γ d8dτ S = 0.74
BM ε 2 (Xi) BM ε 2 (Xi) 0.85
vol M 4ωd (cid:91) vol M 4ωd (cid:91) 0.78
1≤i≤n 24 (108) 1≤i≤n 24 (108) 0.70
(cid:113) (109) (cid:113) (109) 0.82
(110) (111) (110) (111) 0.85
(112) (113) (112) (113) 0.85
英語(論文から抽出)日本語訳スコア
Then because (cid:18) ですから (cid:18) 0.70
(cid:19) Nε 2 . (cid:19) Nε2。 0.77
Thus if X ∼ P then we have with probability at least 1 by our choice of ε, we have that P(S) < 1 2 , dM (X,{X1, . したがって、X が P であれば、ε の選択によって少なくとも 1 の確率を持つので、P(S) < 1 2 , dM (X,{X1, ) が成り立つ。 0.81
. . , Xn}) ≥ ε 4 . . . , Xn}) ≥ ε 4 . 0.85
The first result follows. 最初の結果は以下の通り。 0.68
We may apply the identical argument, instead using intrinsic covering numbers and the bound in (cid:4) Proposition 9 to recover the second statement. 代わりに、本質的な被覆数と(cid:4)命題9の有界を用いて、同じ引数を適用して第二の文を復元する。 0.65
2 . Thus the Wasserstein distance between P and Pn is at least ε 2 . したがって、P と Pn の間のワッサーシュタイン距離は少なくとも ε である。 0.78
(114) > n Proof of Proposition 19. (114) >n 命題19の証明。 0.73
By Kantorovich-Rubenste in duality and Jensen’s inequality, we have カントロヴィチ=ルビンシュタイン双対性とジェンセンの不等式によって 0.44
E(cid:2)W M E(cid:2)W M 0.92
1 (Pn, P)(cid:3) ≤ E 1 (Pn, P)(cid:3) ≤ E 0.99
(cid:34) n(cid:88) (cid:34) n(cid:88) 0.81
i=1 sup f∈F i=1 sup fvcf 0.56
1 n f (Xi) − E [f (Xi)] 1n f (Xi) − E [f (Xi)] 0.77
≤ E sup f∈F ≤E sup fvcf 0.66
1 n P, 1 2 (cid:35) 1n P。 1 2 (cid:35) 0.77
(cid:34) where F is the class of functions on M that are 1-Lipschitz with respect to dM . (cid:34) ここで F は dM に対して 1-Lipschitz である M 上の函数の類である。 0.78
Note that, by translation invariance, we may take the radius of the Holder ball F to be ∆. 注意すべきは、変換不変性により、ホルダーボール f の半径を ... とする。 0.53
By symmetrization and chaining, シンメトリゼーションと連鎖による。 0.57
(cid:34) n(cid:88) (cid:34) n(cid:88) 0.81
i=1 E sup f∈F i=1 E sup fvcf 0.66
1 n f (Xi) − f (X(cid:48) i) 1n f (Xi) − f (X(cid:48) i) 0.86
≤ 2E sup f∈F ≤2E sup fvcf 0.69
1 n ≤ 2 inf 1n ≤ 2 inf 0.80
δ>0 8δ + n(cid:88) δ>0 8δ + n(cid:88) 0.86
(cid:34) (cid:35) (cid:34) (cid:35) 0.78
= E(cid:2)W M = E(cid:2)W M 0.94
n)(cid:3) f (Xi) − f (X(cid:48) i) n(cid:3) f (Xi) − f (X(cid:48) i) 0.95
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
i=1 (115) √ 2√ 8 n i=1 (115) ~2~8n 0.62
δ (cid:35) (cid:90) ∆ (cid:113) log N (F,||·||∞ , ε)dε (cid:19) d (cid:17)d(cid:18) 2∆ (cid:90) 1 δ (cid:35) (cid:90) > (cid:113) log N (F,|||||∞ , ε)dε (cid:19) d (cid:17)d(cid:18) 2\ (cid:90) 1 0.83
(cid:35) (cid:35) (cid:35) (cid:35) 0.78
dε ε 2 (cid:16) π dε ε 2 (cid:16)π 0.81
2 (116) (117) 2 (116) (117) 0.85
log 1 δ δ ε− d ログ 1 δ δ ε−d 0.81
2 dε vol M (cid:114) 2dε vol M (cid:114) 0.78
ωd (cid:17) d ωd (cid:17)d 0.80
2 2∆ ε (cid:16) π 2 2∆ ε (cid:16)π 0.83
2 (cid:35) 2 (cid:35) 0.82
(cid:34) (cid:34) (cid:34)(cid:34) 0.72
≤ inf δ>0 8δ + ≤ inf δ>0 8δ + 0.86
(cid:34) ≤ 2∆ inf (cid:34) ≤2' inf 0.81
δ>0 8δ + n(cid:88) δ>0 8δ + n(cid:88) 0.86
i=1 √ 2√ 8 n (cid:35) i=1 ~2~8n (cid:35) 0.60
εif (Xi) εif (複数形 εifs) 0.40
δ 3 log (cid:115) (cid:90) ∆ (cid:114) vol M (cid:114) vol M δ 3ログ (cid:115) (cid:90) (cid:114) vol M (cid:114) vol M 0.80
ωd √ 6√ 8 n (118) ωd ~6~8n (118) 0.69
(119) (cid:4) (119) (cid:4) 0.82
(120) (121) (120) (121) 0.85
(122) where the last step comes from Corollary 14. (122) 最後のステップは14号室から来ています 0.73
Setting δ = n− 1 δ = n− 1 を定める 0.78
d gives E(cid:2)W M dは E(cid:2)W M 0.82
1 (Pn, P (cid:48) 1 (Pn, P (cid:48) 0.96
n)(cid:3) ≤ C∆ n)(cid:3)≤ C 0.86
(cid:16) π (cid:17) d 2(cid:112)log nn− 1 (cid:16)π (cid:17) d 2(cid:112)log nn− 1 0.80
d dωd 2 Proof of Theorem 23. d dωd 2 定理23の証明。 0.74
By bounding the supremum of sums by the sum of suprema and the construction of 和の上限を上限の和と構成で束縛することによって 0.54
(cid:98)µ, (cid:98)μ, 0.88
dα,B((cid:98)µ, P) ≤ dα,B((cid:98)µ,(cid:101)Pn) + dα,B((cid:101)Pn, P) ≤ inf dα,B(µ, P) + 2dα,B((cid:101)Pn, P) dα,B(µ, P) + 2dα,B((cid:101)Pn, Pn) + 2dα,B(Pn, P) dα,B((cid:98)μ,P) ≤ dα,B(cid:98)μ,(cid:101)Pn) + dα,B((cid:101)Pn,P) ≤ inf dα,B(μ,P) + 2dα,B((cid:101)Pn,P) dα,B(μ,P) + 2dα,B((cid:101)Pn,Pn) + 2dα,B(Pn,P) 0.93
µ∈P ≤ inf µ∈P ≤ inf µ∈P μ・P ≤ inf μ・P ≤ inf μ・P 0.51
dα,B(µ,(cid:101)Pn) + dα,B((cid:101)Pn, P) dα,B(μ,(cid:101)Pn) + dα,B(cid:101)Pn,P) 0.98
Taking expectations and applying Lemma 15 bounds the last term. Lemma 15への期待と適用は、最後の期間に制限される。 0.64
The middle term can be bounded as follows: 中間項は次のように境界づけることができる。 0.62
dα,B((cid:101)Pn, Pn) = sup dα,B((cid:101)Pn, Pn) = sup 0.97
n(cid:88) n(cid:88) n(cid:88)n(cid:88) 0.80
i=1 i=1 1 n i=1 i=1 1n 0.64
1 n B (Ω) 1n B (複数形 Bs) 0.64
f∈Cα ≤ sup f∈Cα f・Cα ≤ sup f・Cα 0.42
B (Ω) B (複数形 Bs) 0.53
f (Xi) − f ((cid:101)Xi) ≤ sup f(Xi) − f((cid:101)Xi) ≤ sup 0.95
f∈Cα B (Ω) fvccα B (複数形 Bs) 0.51
n(cid:88) i=1 n(cid:88) i=1 0.71
1 n B ||ηi|| + 2Bε 1n B||ηi|| + 2Bε 0.61
f (Xi) − f (Xi + ηi) + 2Bε f (Xi) − f (Xi + ηi) + 2Bε 0.97
(123) (124) (123) (124) 0.85
B(Ω) then ||f||∞ ≤ B and the contamination where the first inequality follows from the fact that if f ∈ C α is at most ε. B(Ω) ならば ||f||∞ ≤ B と、第一の不等式が従う汚染は、f ∈ C α が ε であるという事実から生じる。 0.79
The second inequality follows from the fact that f is B-Lipschitz. 2つ目の不等式は、f が B-Lipschitz であるという事実に従う。 0.52
Taking expectations and (cid:4) applying Jensen’s inequality concludes the proof. 期待と(cid:4)ジェンセンの不等式の適用は、証明を結論づける。 0.60
25 25 0.85
英語(論文から抽出)日本語訳スコア
Proof of Corollary 24. Applying Kantorovich-Rubenste in duality, the proof follows immediately from that of Theorem 23 by setting α = 1, with the caveat that we need to bound B and the Lipschitz constant separately. 第24巻に登場。 カントロヴィチ・ルベンシュタイン双対性(英語版)を適用すると、証明は、B とリプシッツ定数を別々に束縛する必要があることに注意して α = 1 を設定することで、定理 23 からすぐに従う。
訳抜け防止モード: 第24巻に登場。 Kantorovich - Rubenstein双対性の適用 証明は、定理23から直ちに従う α = 1 のとき、B とリプシッツ定数を別々に束縛する必要があるという注意が必要である。
0.53
The Lipschitz constant is bounded by 1 by Kantorovich duality. リプシッツ定数はカントロビッチ双対性により 1 で有界である。 0.44
The class is translation invariant, and so |||f||∞ − E[f ]| ≤ 2R by the fact that the Euclidean diameter of S is bounded by 2R. クラスは変換不変であり、したがって |||f|||∞ − E[f ]| ≤ 2R は S のユークリッド径が 2R で有界であるという事実による。 0.67
The result follows. 結果は次のようになる。 0.53
(cid:4) 26 (cid:4) 26 0.82
                                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。