論文の概要、ライセンス

# (参考訳) 線形部分空間をもつスパース線形回帰の基本的限界 [全文訳有]

The fundamental limits of sparse linear regression with sublinear sparsity ( http://arxiv.org/abs/2101.11156v1 )

ライセンス: CC BY 4.0
Lan V. Truong(参考訳) 正規化された相互情報と線形回帰の最小平均二乗誤差(MMSE)に対する正確な非近距離表現を確立する。 この結果は,線形レジームに対するベイズ推論における適応補間法の単純一般化によって得られる。 MMSEの基本限界に近づくためによく知られた近似メッセージパッシングアルゴリズムの修正も提案されている。 本研究では, 補間法および適応補間法において, 信号次元と観測回数との従来の線形仮定がスパース信号には必要ないことを示した。 また、既存の良く知られたampアルゴリズムを線形レジームからサブリニアに修正する方法も示している。

We establish exact asymptotic expressions for the normalized mutual information and minimum mean-square-error (MMSE) of sparse linear regression in the sub-linear sparsity regime. Our result is achieved by a simple generalization of the adaptive interpolation method in Bayesian inference for linear regimes to sub-linear ones. A modification of the well-known approximate message passing algorithm to approach the MMSE fundamental limit is also proposed. Our results show that the traditional linear assumption between the signal dimension and number of observations in the replica and adaptive interpolation methods is not necessary for sparse signals. They also show how to modify the existing well-known AMP algorithms for linear regimes to sub-linear ones.
公開日: Wed, 27 Jan 2021 01:27:03 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 n a J 1 2 0 2 n a J 0.85
7 2 ] T I . 7 2 ] T I。 0.79
s c [ 1 v 6 5 1 1 1 sc [ 1 v 6 5 1 1 1 0.68
. 1 0 1 2 : v i X r a . 1 0 1 2 : v i X r a 0.85
The fundamental limits of sparse linear スパース線形の基本的な限界 0.83
regression with sublinear sparsity サブリニアスパルシリティによる回帰 0.44
1 Lan V. Truong 1 Lan V. Truong 0.90
Department of Engineering The University of Cambridge 工学科 ケンブリッジ大学 0.44
Email: lt407@cam.ac.uk lt407@cam.ac.uk 0.67
Abstract We establish exact asymptotic expressions for the normalized mutual information and minimum mean-square-error (MMSE) of sparse linear regression in the sub-linear sparsity regime. 概要 正規化された相互情報と線形回帰の最小平均二乗誤差(MMSE)に対する正確な非近距離表現を確立する。 0.57
Our result is achieved by a simple generalization of the adaptive interpolation method in Bayesian inference for linear regimes to sub-linear ones. この結果は,線形レジームに対するベイズ推論における適応補間法の単純一般化によって得られる。 0.77
A modification of the well-known approximate message passing algorithm to approach the MMSE fundamental limit is also proposed. MMSEの基本限界に近づくためによく知られた近似メッセージパッシングアルゴリズムの修正も提案されている。 0.75
Our results show that the traditional linear assumption between the signal dimension and number of observations in the replica and adaptive interpolation methods is not necessary for sparse signals. 本研究では, 補間法および適応補間法において, 信号次元と観測回数との従来の線形仮定がスパース信号には必要ないことを示した。 0.72
They also show how to modify the existing well-known AMP algorithms for linear regimes to sub-linear ones. また、既存の良く知られたampアルゴリズムを線形レジームからサブリニアに修正する方法も示している。 0.58
I. INTRODUCTION Estimating a signal from linear random projections has a myriad of applications such as compressed sensing, code division multiple access in communications, error correction via sparse superposition codes, or Boolean group testing. 私。 導入 線形ランダム射影からの信号の推定には、圧縮センシング、通信におけるコード分割多重アクセス、スパース重ね合わせ符号による誤り訂正、ブール群テストなど、無数の応用がある。 0.64
The main question is to find information theoretic limits for the estimation of a signal from the knowledge of its noisy random linear projections. 主な質問は、ノイズのランダムな線形射影の知識から信号の推定のための情報理論上の限界を見つけることである。 0.79
By using replica method, Tanaka [1], Guo and Verd´u [2] show that under a posterior mean estimator and the linear relation between signal dimension and the number of observations, the multiuser channel can be decoupled: Each signal experiences an equivalent single-signal Gaussian channel, whose signal-to-noise ratio (SNR) suffers a degradation due to multiple signal interference. レプリカ法を用いて, 田中[1], Guo, Verd ́u [2] は, 後平均推定値と信号次元と観測数との線形関係の下で, マルチユーザチャネルを分離できることを示した: 各信号は, 信号対雑音比 (SNR) が多重信号干渉により劣化する等価な単一信号ガウスチャネルを経験する。 0.92
The replica method, although very interesting, is based on some non-rigorous assumptions. レプリカメソッドは非常に興味深いが、いくつかの非リゴラスな仮定に基づいている。 0.47
In more recent years, an adaptive interpolation method has been proposed to prove fundamental limits predicted by replica method in a rigorous way [3]–[5]. 近年では、レプリカ法により予測される基本的な限界を厳密な[3]–[5]で証明する適応補間法が提案されている。 0.79
Roughly speaking, this method interpolates between the original problem and the mean-field replica solution in small steps, each step involving its own set of trial parameters and Gaussian mean-fields in the sprit of Guerra and Toninelli [3], [6]. 大まかに言えば、この手法は元の問題と平均場複製解を小さなステップで補間し、各ステップはゲラとトニネリのスプリットにおける独自の試行パラメータとガウス平均場を含む [3], [6]。 0.75
We can adjust the set of trial parameters in various ways so that we get both upper and lower bounds that eventually match. 様々な方法で試行パラメータの集合を調整して、最終的に一致する上界と下界の両方を得ることができます。 0.71
Although the results achieved by the replica method and the adaptive interpolation counterpart are very interesting, they are constrained to the case where the number of observations scales linearly with the signal dimension. レプリカ法と適応補間法によって達成された結果は、非常に興味深いが、観測の数が信号次元と直線的に拡大する場合に制限されている。 0.69
In [7], Reeves et al. 7]では、Reeves et al. 0.67
consider a binary k-sparse linear regression problem where the number of observations m is sub-linear 観測 m の数がサブ線型である二進 k-スパース線形回帰問題を考える。 0.78
January 28, 2021 2021年1月28日 0.75
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
positive sequence. We consider the same linear model as [3]: 正のシーケンス。 我々は [3] と同じ線形モデルを考える。 0.67
(cid:112) 2 (cid:112) 2 0.82
to the signal dimension n, where the authors established an “All-or-Nothing” information-theoreti c phase transition √ at a critical sample size m∗ = 2k log(n/k)/ log(1 + k/∆n) for two regimes k/∆n = Ω(1) and k = o( n) with ∆n being the noise variance. 信号次元 n に対して、著者らは二つのレジーム k/\n = ω(1) と k = o(n) が雑音分散である k = o(n) に対して、臨界サンプルサイズ m∗ = 2k log(n/k)/ log(1 + k/sn) で「全てまたは全く」な情報理論的な位相遷移を定式化した。
訳抜け防止モード: シグナル次元 n に対して、著者は "All - or - Nothing " 情報 - 理論的位相遷移 (theoretic phase transition) をクリティカルなサンプルサイズ m* = 2k log(n / k)/ log(1 ) で確立した。 n と k = o ( n ) の2つの系に対して k/*n はノイズ分散である。
0.76
Their results are based on an assumption that the sparse signal is uniformly distributed from the set {v ∈ {0, 1}n : (cid:107)v(cid:107)0 = k}. それらの結果は、スパース信号が集合 {v ∈ {0, 1}n : (cid:107)v(cid:107)0 = k} から均一に分布しているという仮定に基づいている。 0.79
In this paper, we consider the same k-sparse linear regression as [7] but in more general signal domain. 本稿では、[7] と同じ k-スパース線形回帰を、より一般的な信号領域で考える。
訳抜け防止モード: 本稿では, [7 ] と同じ k-スパース線形回帰を考える。 しかし より一般的な信号領域では
0.81
However, we assume that the signal is sparse in expected sense as [8]. しかし, [8] として, 信号は期待値に乏しいと仮定する。 0.80
We show that the normalized mutual information and minimum mean-square-error can be estimated exactly when k = O(nα) and m = δnα for some α ∈ (0, 1). 正規化された相互情報と最小平均二乗誤差は、ある α ∈ (0, 1) に対して k = o(nα) と m = δnα のとき正確に推定できる。 0.75
Our result is achieved by a simple generalization of the adaptive interpolation method in Bayesian inference for linear regimes [3], [9] to sub-linear ones. この結果は、線形系 [3], [9] に対するベイズ推論における適応補間法の簡便な一般化によって達成される。 0.81
A modification of the well-known Approximate Message Passing (AMP) algorithm [10] achieves this MMSE fundamental limit. Approximate Message Passing (AMP)アルゴリズム [10] の修正により、このMMSEの基本的限界が達成される。 0.86
AMP is initially proposed for sparse signal recovery and compressed sensing [11]–[13]. AMPは当初、スパース信号の回復と圧縮センシングのために提案された[11]–[13]。 0.78
AMP algorithms achieve state-of-the-art performance for several high-dimensional statistical estimation problems, including compressed sensing and low-rank matrix estimation [10], [14]. ampアルゴリズムは圧縮センシングや低ランク行列推定[10],[14]など,いくつかの高次元統計量推定問題に対して最先端の性能を実現する。 0.68
II. PROBLEM SETTING Let S ∈ Rn be a signal observed via a linear model with measurement matrix A ∈ Rm×n. II。 問題設定 S ∈ Rn を、測定行列 A ∈ Rm×n を持つ線形モデルを介して観測される信号とする。 0.70
Let {∆n}∞ n=1 be a let {n}∞ n=1 は a 0.75
(1) where A ∈ Rm×n, S = (S1, S2,··· , Sn)T ∈ Rn, W ∈ Rm, and Y ∈ Rm. 1) ここで A ∈ Rm×n, S = (S1, S2, ... , Sn)T ∈ Rn, W ∈ Rm, Y ∈ Rm となる。 0.95
Instead of assuming that m = nδ for some δ > 0 as standard literature in replica and adaptive interpolation methods, we assume that m = δnα for some δ > 0 and α > 0. m = nδ for some δ > 0 for some δ > 0 as standard literature inplica and Adaptive interpolation method を仮定する代わりに、 m = δnα for some δ > 0 and α > 0 を仮定する。 0.90
We also assume: Y = AS + W これも仮定します Y = AS + W 0.68
∆n, n=1 is an i.i.d. さよなら。 n=1 は i. i. d. 0.44
sequence with Si ∼ ˜P0, and ES∼P0 [S4] < ∞, S4] < ∞ である。 0.27
• {Sn}∞ • W ∼ N (0, Im). • {Sn}∞ • W は N (0, Im) である。 0.84
• ∆n can be any function of n and α1. •n は n と α1 の任意の函数である。 0.72
∀i ∈ [n]. i ∈ [n] である。 0.57
For this case, we assume that the sensing matrix A has i.i.d. この場合、センシング行列 A が i.i.d を持つと仮定する。 0.67
Gaussian components. As in [3], let ガウス成分。 [3] のように、 0.60
III. MAIN RESULT Σ(u; v)−2 := III。 主な結果 Σ(u; v)−2 := 0.70
ψ(u; v) := ψ(u; v) := 0.85
(cid:20) δnα−1 u + v δ 2 (cid:20) δnα−1 u + v δ 2 0.77
log , (cid:18) ログ , (cid:18) 0.78
1 + (cid:19) 1 + (cid:19) 0.82
u v − u u + v ユー・V - u u + v 0.65
(cid:21) . (cid:21) . 0.82
Define the following sequence of Replica Symmetric (RS) potentials: Replica Symmetric (RS) ポテンシャルの次の列を定義する。 0.82
fn,RS(E; ∆n) := ψ(E; ∆n) + in,den(Σ(E; ∆n)), fn,rs(e; sn) := ψ(e; sn) + in,den(σ(e; sn)) 0.68
1This constraint is much less strict than the one in [3], where the authors assumed that ∆n is fixed. 1この制約は[3]の制約よりもずっと厳密ではない。
訳抜け防止モード: 1この制約は[3]の制約よりも厳格ではない。 著者らは、n が固定されていると仮定した。
0.58
January 28, 2021 2021年1月28日 0.75
(2) (3) (4) (2) (3) (4) 0.85
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
3 where in,den(Σ) = n1−αI(S; S + ˜W Σ) is a normalized mutual information of a scalar Gaussian denoising model Y = S + ˜W Σ with S ∼ ˜P0, ˜W ∼ N (0, 1), and Σ−2 an effective signal to noise ratio: 3 ここで、den(Σ) = n1−αI(S; S + のW Σ) は、スカラーガウスの乗法モデル Y = S + の正規化された相互情報である。
訳抜け防止モード: 3 ここで、den(Σ ) = n1−αI(S ; S + >W Σ ) はスカラーガウスの乗法モデル Y = S + >W Σ の正規化された相互情報である。 N (0 , 1 ) および Σ−2 は、雑音比に対する効果的な信号である。
0.85
in,den(Σ) := n1−αE in,den(Σ) :=n1−αE 0.84
S, ˜W S (複数形 Ss) 0.28
(cid:20) (cid:90) (cid:18) (x − S)2 (cid:20) (cid:90) (cid:18) (x − S)2 0.84
˜P0(x) log − 1 Σ2 P0(x) ログ − 1 Σ2 0.84
2 (cid:20) 2 (cid:20) 0.82
Our main result is the following: 主な成果は以下のとおりである。 0.73
× exp − (x − S) ˜W Σ ×exp − (x − S) >W Σ 0.72
(cid:19)(cid:21) (cid:19)(cid:21) 0.75
dx. (5) Theorem 1. dxだ (5) 理論1。 0.74
Let k = O(nα), and m = δnα for some 0 < α < 1 and δ > 0. ある 0 < α < 1 と δ > 0 に対して k = O(nα) と m = δnα とする。 0.92
Assume that A is a Gaussian random matrix with Aij ∼ N (0, 1/nα), and {Si}i∈[n] are i.i.d. A が Aij (0, 1/nα) と {Si}i∈[n] が i.i.d を持つガウス確率行列であると仮定する。 0.77
which are distributed according to a discrete prior b=1 pbδ(s − ab) with a finite number B of constant terms and 定数項の有限数 B の離散的なb=1 pbδ(s − ab) に従って分布する。 0.77
n P0(s) where P0(s) =(cid:80)B n P0(s) where P0(s) =(cid:80)B 0.94
˜P0(s) =(cid:0)1 − k p0(s) =(cid:0)1 − k 0.87
(cid:1)δ(s) + k (cid:1)δ(s) + k 0.98
n maxb |ab| ≤ smax. n maxb |ab| ≤ smax. 0.87
Then, in the large system limits, the following holds: 次に、大きなシステム制限では、次の通りです。 0.74
(cid:20) I(S; Y) nα − min (cid:20) 1 n(cid:88) E≥0 (cid:20) I(S; Y) nα − min (cid:20) 1 n(cid:88) E≥0 0.83
nα i=1 lim n→∞ nα i=1 lim n→∞ 0.69
lim n→∞ (cid:21) lim n→∞ (cid:21) 0.75
fn,RS(E; ∆n) fn,RS(E; sn) 0.82
= 0, E[(Si − ˆSi)2] − n1−α ˜E(∆n) = 0, E[(Si − sSi)2] − n1−α sE(n) 0.89
(cid:21) = 0, (cid:21) = 0, 0.82
(6) (7) where ˆS = E[S|Y] is the MMSE estimator, ˜E(∆n) is the unique global minimum of fn,RS(E; ∆n) w.r.t. (6) (7) S = E[S|Y] が MMSE の推定値であるとき、E(n) は fn,RS(E; yn) w.r.t のユニークな世界最小値である。 0.82
E for all ∆n (cid:54)= ∆n,RS. すべて E です。 sn (cid:54)= sn,RS。 0.68
Here, ∆n,RS is the point where arg minE≥0 fn,RS(E; ∆n)(cid:3) is not unique. ここで、sn,RS は arg minE≥0 fn,RS(E; sn)(cid:3) が一意でない点である。 0.77
Remark 2. Some remarks are in order. 備考2。 いくつかの発言は順調である。 0.50
• For α = 1 (or m = δn), and ∆n = ∆ for some fixed ∆ > 0, our results recover the classical result as in [1], n=1 are i.i.d and S1 ∼ ˜P0 which is a • α = 1 (または m = δn) に対して、ある固定された ~ > 0 に対して、我々の結果は [1], n=1 が a である i.d と S1 シュ P0 であるように古典的な結果を回復する。 0.74
[5], [15], [16]. [5], [15], [16]. 0.65
In these classical papers, the authors assume that {Sn}∞ fixed distribution. これらの古典論文では、著者は {Sn}∞ が固定分布であると仮定する。 0.65
• As k = o(nα), it holds that • k = o(nα) として、それが成り立つ。 0.68
m = δnα (cid:18) m = δnα (cid:18) 0.78
= ω log(1 + (k/∆)(cid:80)B = ω log(1 + (k/\)(cid:80)b 0.88
k log (n/k) k ログ (n/k) 0.81
b=1 pba2 b) b=1 pba2 b) 0.74
= ω(m∗), ω(m∗) である。 0.83
(cid:19) (8) (cid:19) (8) 0.82
(9) (10) where m∗ is the “All-or-Nothing” critical sample size in Eqn. (9) (10) m∗ は Eqn の “All-or-Nothing” 臨界サンプルサイズである。 0.80
(3) [7] or Cor. (3) [7]またはCor。 0.79
1 [17]. Our result shows that under the MMSE estimator, the linear regression model can be decomposed into sub-AWGN channels, and the 1 [17]. その結果,MMSE推定器では線形回帰モデルがサブAWGNチャネルに分解できることが示された。 0.72
final MMSE estimation is equal to the MMSE of a (time-varying SNR) sub-AWGN channel in the large system 最終MMSE推定は、大系における(時間変動SNR)サブAWGNチャネルのMMSEと等しい 0.80
limit. In this section, we propose a way to modify the Approximate Message Passing (AMP) algorithm [10] to make it 限界だ 本稿では,AMP(Adroximate Message Passing)アルゴリズム[10]を改良して作成する方法を提案する。
訳抜け防止モード: 限界だ このセクションでは、方法を提案します。 Approximate Message Passing ( AMP ) アルゴリズム [10 ] を変更して作成します。
0.75
work for sub-linear regimes as follows. 以下のサブリニア体制で作業する。 0.57
IV. ALGORITHM IV。 アルゴリズム 0.65
January 28, 2021 2021年1月28日 0.75
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
Algorithm 1 AMP for sub-linear regimes. アルゴリズム1 サブ線形状態に対するAMP。 0.76
4 Input: observation y, matrix sizes m, n, other parameters α, δ, number of iterations itermax, t = 1. repeat 4 入力: 観察 y, 行列サイズ m, n, 他のパラメータ α, δ, 反復の回数 itermax, t = 1. 繰り返し。 0.85
Initialize δ = δnα−1, τ =(cid:112)∆n + 1/δ, z = 0 δ = δnα−1, τ =(cid:112)\n + 1/δ, z = 0 を初期化する。 0.68
, ˆx = 0 ¯ x = 0 である。 0.74
, d = 0. ¯ , d = 0。 ¯ 0.83
z ← y − Aˆx + 1 h ← AT z + ˆx τ ← τ n1−α z + y − A*x + 1 h {\displaystyle z} は、z + y y − A\x + 1 h {\displaystyle z} である。 0.39
δ zd ˆx ← η(h, τ ), d ← Mean(cid:0) dη τ ←(cid:112)∆n + (1/δ)E[(η(S0 + τ W, τ ) − S0)2] δ zd S0(S0) − S0)2] (d) (cd:0) d) (cd:112) (n + (1/δ)E[(s0 + s0)) − S0)2]
訳抜け防止モード: δ zd η(h, τ ), d が平均(cid:0 ) dη τ(cid:112) である。 + (1 / δ)e[(η(s0 + τ w, τ ) − s0)2]
0.84
dx (h, τ )(cid:1) dx (h, τ )(cid:1) 0.98
t ← t + 1 until t=itermax Output: ˆx. t > t + 1 t=itermax出力: .x まで。 0.72
2 (1 − k example as follows. 2 (1 − k) の例を示す。 0.77
Let ˜P0(s) = k distribution (cf. P0(s) = k 分布 (cf) とする。 0.75
[8]). With this assumption, we have [8]). この仮定で、私たちは 0.66
We compare the theoretical MMSE fundamental limit in Theorem 1 and the MSE of Algorithm 1 for a specific n )(δ(s − 1) + δ(s + 1)), which is the Bernoulli-Rademacher (cid:20) 定理 1 における理論 mmse の基本極限とアルゴリズム 1 の mse を、ベルヌーイラデマッハである特定の n )(δ(s − 1) + δ(s + 1) に対して比較する(cid:20)。 0.81
in,den(Σ) = n1−αI(S; S + ˜W Σ) in,den(Σ) = n1−αI(S; S + >W Σ) 0.89
n δ(s) + 1 n δ(s) + 1 0.85
(11) (cid:21) (11) (cid:21) 0.82
where fY (y) = どこに fY (y) = 0.76
k n + = n1−α H(Y ) − 1 2 kn + n1−α H(Y ) − 1 2 0.69
log(2πeΣ2) log(2πeΣ2) 0.65
, (cid:18) , (cid:18) 0.82
(cid:19) Σ (cid:19) Σ 0.82
√ 1 2π √ 1 √ 1 2π √ 1 0.99
2Σ 2π exp (cid:18) (cid:18) 2Σ 2π exp (cid:18)(cid:18) 0.79
+ exp − y2 2Σ2 +exp -y2 2Σ2 0.67
(cid:19)(cid:18) (cid:19)(cid:18) 0.75
1 − k n − (y + 1)2 1 − k n − (y + 1)2 0.85
2Σ2 exp (cid:19)(cid:19) 2Σ2 exp (cid:19)(cid:19) 0.73
. (cid:18) . (cid:18) 0.82
(cid:19) − (y − 1)2 (cid:19) − (y − 1)2 0.82
2Σ2 η(x, τ ) = E[S|S + τ Z = x] 2Σ2 η(x, τ ) = E[S|S + τ Z = x] 0.77
n exp(cid:0) 1 n exp(cid:0) 1 0.92
1 2 k 2τ 2 1 2 k 2τ 2 0.86
(cid:0)1 − k (cid:1) + 1 (cid:0)1 − k (cid:1) + 1 0.88
(cid:1)(cid:2) exp( x (cid:0)1 − k (cid:1)(cid:2) exp(x (cid:0)1 − k 0.85
n n 2 = τ 2 )(cid:3) n n 2 = τ 2 )(cid:3) 0.86
τ 2 ) − exp(− x τ 2 ) − exp(− x) 0.93
(cid:1)(cid:2) exp( x (cid:1)(cid:2) exp(x) 0.77
τ 2 ) + exp(− x τ 2 ) + exp(− x) 0.93
τ 2 )(cid:3) . τ 2 (cid:3)。 0.81
For this prior distribution, we run Algorithm 1 for itermax = 10 iterations with the denoiser defined as following: この事前分布に対して、イタマックス=10イテレーションのアルゴリズム1を以下で定義したデノイザで実行します。 0.72
Fig. 1 shows that AMP performance (Monte-Carlo simulation) is very close to the MMSE fundamental limit in フィギュア。 1 は AMP 性能 (Monte-Carlo シミュレーション) が MMSE の基本限界に非常に近いことを示している。 0.60
Theorem 1 for n = 200. n = 200 の定理 1。 0.71
V. PROOF OF THE MAIN RESULT V. メイン・リサートの展望 0.64
The proof of Theorem 1 is based on [3], [9] with some modifications in concentration inequalities and normalized 定理 1 の証明は [3], [9] に基づいており、濃度の不等式と正規化のいくつかの修正がある 0.70
factors to account for new settings. 新しい設定を 考慮すべき要素です 0.68
Given the model (1), the likelihood of the observation y given S and A is モデル(1) を考えると、S と A が与えられた観測 y の確率は、 0.83
(cid:20) − 1 2∆n (cid:20) -1・2・n 0.65
(cid:13)(cid:13)y − As(cid:13)(cid:13)2( cid:21) (cid:13)(cid:13)y − As(cid:13)(cid:13)2( cid:21) 0.78
P (y|s, A) = P (y|s, A) = 0.94
1 (2π∆n)m/2 1 (2πn)m/2 0.74
exp January 28, 2021 exp 2021年1月28日 0.80
(12) (13) (14) (12) (13) (14) 0.85
(15) (16) DRAFT (15) (16) DRAFT 0.85
英語(論文から抽出)日本語訳スコア
5 Fig. 1. 5 フィギュア。 1. 0.71
Comparison between the fundamental limit and the MSE of Algorithm 1 at α = 0.9 and δ = 0.5 for n = 200. α = 0.9 におけるアルゴリズム 1 の基本限界と MSE と n = 200 に対する δ = 0.5 の比較。 0.92
Here, SN R := −10 log ∆n (dB). ここで、SN R := −10 log (dB) である。 0.83
From Bayes formula we then get the posterior distribution for x = [x1, x2,··· , xn] ∈ Rn given the observation y and sensing matrix A ベイズの公式から、観測y とセンシング行列 A を与えられた x = [x1, x2, ... , xn] ∈ Rn の後方分布を得る。 0.78
Replacing the observation y by its explicit expression (1) as a function of the signal and the noise we obtain 観測yをその明示的な表現に置き換えること(1)信号の関数と我々が得る雑音として 0.85
where we call = 我々が呼ぶところは = 0.71
P (x|y, A) = P (x|y, A) = 0.94
˜P0(xi)P (y|x, A) ˜P0(xi)dxiP (y|x, A) P0(xi)P(y|x, A) ×P0(xi)dxiP(y|x, A) 0.87
. (cid:81)n (cid:82)(cid:81)n . (cid:81)n (cid:82)(cid:81)n 0.82
i=1 i=1 (cid:112) i=1 i=1 (cid:112) 0.65
P (x|y = As + w p (x|y = as + w 0.87
(cid:81)n i=1 (cid:81)n i=1 0.71
∆n, A) ˜P0(xi)e−H(x;A,s,w) Z(A, s, w) シュン, A) シュP0(xi)e−H(x;A,s,w)Z(A, s, w) 0.83
, H(x; A, s, w) := , H(x; A, s, w) := 0.85
A(x − s) − A(x − s) − 0.85
A(x − s) wµ A(x − s) wμ 0.82
∆n (cid:20) オーン (cid:20) 0.57
1 ∆n (cid:21) (cid:90) (cid:26) n(cid:89) 1回。 (cid:21) (cid:90) (cid:26) n(cid:89) 0.63
µ m(cid:88) (cid:112) µ m(cid:88) (cid:112) 0.82
µ=1 (cid:20) µ=1 (cid:20) 0.78
(cid:18) 1 (cid:19) (cid:18)1(cid:19) 0.76
2 (cid:27) 2 (cid:27) 0.82
(cid:21)2 µ (cid:21)2 µ 0.85
(17) (18) (19) (17) (18) (19) 0.85
(20) the Hamiltonian of the model, and the normalization factor is by definition the partition function: (20) モデルのハミルトン関数、および正規化係数は、定義によって分割関数です。 0.78
January 28, 2021 2021年1月28日 0.75
DRAFT i=1 Z(A, s, w) := DRAFT i=1 Z(A, s, w) := 0.76
P0(xi)dxi e−H(x;A,s,w). P0(xi)dxi e−H(x;A,s,w)。 0.95
1.01.21.41.61.82.02. 22.4SNR (dB)0.00.20.40.60.81 .0MSEFundamental LimitAMP (10 iterations) 1.01.21.41.61.82.02. 22.4SNR (dB)0.00.20.40.81.0M SEFundamental LimitAMP(10回) 0.32
英語(論文から抽出)日本語訳スコア
Our principal quantity of interest is 私たちの主な関心事は 0.63
EA,S,W[log Z(A, S, W)] EA,S,W[log Z(A, S, W)] 0.80
fn = − 1 nα EA,S,W fn = − 1 nα EA,S,W 0.93
= − 1 nα (cid:20) = − 1 nα (cid:20) 0.88
(cid:18) × exp (cid:18) ×exp 0.65
(cid:20) − 1 ∆n A(x − S) (cid:20) − 1-n A(x − S) 0.84
− (cid:27) − (cid:27) 0.82
log (cid:18)(cid:90) (cid:26) n(cid:89) (cid:18) 1 (cid:20) m(cid:88) (cid:21) (cid:112) ログ (cid:18)(cid:90) (cid:26) n(cid:89) (cid:18) 1 (cid:20) m(cid:88) (cid:21) (cid:112) 0.73
i=1 µ=1 2 Wµ i=1 µ=1 2 Wμ 0.75
∆n A(x − S) オーン A(x − S) 0.60
˜P0(xi)dxi (cid:21)2 (cid:19)(cid:19)(cid :19)(cid:21) P0(xi)dxi (cid:21)2(cid:19)(ci d:19)(cid:19) 0.89
µ , where W i.i.d.∼ N (0, 1). µ , ここで W は N (0, 1) である。 0.80
By using the Bayes’ rule ベイズ・ルールを使用。 0.65
P (y|A) = µ P (y|A) = µ 0.87
P (y|x, A)(cid:81)n P (y|x, A)(cid:81)n 0.86
P (x|y = As + w p (x|y = as + w 0.87
i=1 ˜P0(xi) √ ∆n, A) i=1 p0(xi)-n, a) である。 0.65
, we have It follows that , 我々は その通りです 0.72
P (y|A) = (2π∆)−m/2Z(A, s, w)e− (cid:107)w2(cid:107) P(y|A) = (2π)−m/2Z(A, s, w)e− (cid:107)w2(cid:107) 0.76
2 . (cid:18) P (S, Y|A) 2 . (cid:18)P(S,Y|A) 0.83
(cid:19)(cid:21) (cid:19)(cid:21) 0.75
(cid:20) log (cid:20) ログ 0.75
1 I(S; Y) 1 nα 1 I(S; Y) 1nα 0.83
EA,S,Y nα = = fn − h(Y|A, S) = fn − m EA,S,Y nα = fn − h(Y|A, S) = fn − m 0.93
2nα 2nα log(2πe∆n) + 2nα 2nα log(2πe-n) + 0.57
nα + ˜P0(S)P (Y|A) E[(cid:107)W(cid:107)2 ] + m 2nα log(2π∆n) m 2nα log(2π∆n) nα + P0(S)P(Y|A)E[(cid:107)W(cid:107)2 ] + m 2nα log(2π ) m 2nα log(2π ) 0.82
m 2nα + 6 (21) m 2nα + 6 (21) 0.83
(22) (23) (24) (22) (23) (24) 0.85
(25) (26) (27) (25) (26) (27) 0.85
(28) = fn. (28) fn である。 0.82
Hence, in order to obtain (6), it is enough to show that fn − min E≥0 したがって、 (6) を得るには、fn − min e≥0 を示すのに十分である。 0.85
lim n→∞ (cid:20) lim n→∞ (cid:20) 0.75
(cid:21) Let W(k) = [W (k) (cid:21) W(k) = [W(k) とする。 0.82
µ ]m µ=1, ˜W(k) = [ ˜W (k) μ ]m μ=1, sW(k) = [ sW(k) ) 0.88
µ ]n i=1 and ˆW = [ ˆWi]n μ[n] i=1 と sw = [ ]wi]n 0.77
where Kn is chosen later. Knは後に選択される。 0.69
Define Σk := Σ(Ek; ∆n) where the trial parameters {Ek}Kn As [3], the (perturbed) (k, t)-interpolating Hamiltonian for this problem is defined as ここで、試験パラメータ {Ek}Kn を [3] として定義すると、この問題に対する (perturbed) (k, t)-interpolating Hamiltonian は次のように定義される。 0.76
fn,RS(E; ∆n) fn,RS(E; sn) 0.82
= 0. (29) i=1 all with i.i.d. = 0. (29)i=1,i.d。 0.81
N (0, 1) entries for k = 1, 2,··· , Kn k=1 are determined later on. k = 1, 2,··· , Kn k=1 に対する N (0, 1) の成分は後に決定される。 0.87
Hk,t;ε(x; Θ) := Hk,t;ε(x; y) := 0.80
h x, S, A, W(k(cid:48)), Kn∆n H x, S, A, W(k(cid:48)), Kn*n 0.83
(cid:19) Kn(cid:88) (cid:19) Kn(cid:88) 0.81
(cid:18) k(cid:48)=k+1 x, S, ˜W(k(cid:48)), KnΣ2 k(cid:48) (cid:18) k(cid:48)=k+1 x, S, yW(k(cid:48)), Kn*2 k(cid:48) 0.80
(cid:19) + (cid:19) + 0.82
(cid:18) k(cid:48)=1 (cid:18) k(cid:48)=1 0.78
hmf k−1(cid:88) (cid:18) (cid:18) (cid:18) x2 n(cid:88) フンフ k−1(cid:88) (cid:18) (cid:18) x2 n(cid:88) 0.64
+ h x, S, A, W(k), +h x, S, A, W(k) 0.74
+ hmf x, S, ˜W(k), + hmf x, S, W(k) である。 0.84
(cid:19) (cid:19) (cid:19)(cid:19) 0.73
Kn γk(t) Kn λk(t) Kn γk(t) Kn λk(t) 1.00
+ ε − xiSi − xi ˆWi√ + ε -xiSi − xi 0.71
ε i 2 January 28, 2021 ε い2 2021年1月28日 0.76
i=1 (cid:19) i=1 (cid:19) 0.69
. (30) DRAFT . (30) DRAFT 0.85
英語(論文から抽出)日本語訳スコア
Here, Θ := {S, W(k), ˜W(k)}Kn ここで:= {S, W(k), 「W(k)}Kn である。 0.74
k=1, ˆW, A}, k ∈ [Kn], t ∈ [0, 1] and k=1, ...w, a}, k ∈ [kn], t ∈ [0, 1] および 0.94
h(x, S, W, A, σ2) := h(x, S, W, A, σ2) := 0.91
hmf (x, S, ˜W, σ2) := hmf (x, S, W, σ2) := 0.89
1 σ2 1 σ2 where ¯x = x − S and ¯xi = xi − Si. 1 σ2 1 σ2 ここで、x = x − S と xi = xi − Si である。 0.84
(cid:18) [A¯x]2 (cid:18) ¯x2 (cid:18) [A ・x]2 (cid:18) ・x2 0.66
2 µ i 2 m(cid:88) n(cid:88) 2 µ い2 m(cid:88) n(cid:88) 0.80
µ=1 i=1 − σ(cid:2)A¯x(cid:3) (cid:19) µ=1 i=1 σ(cid:2)A(cid:3) (cid:19) 0.70
− σ¯xi ˜Wi --シックス・シシー・シウィ 0.37
, µWµ (cid:19) , μWμ (cid:19) 0.74
, 7 (31) (32) , 7 (31) (32) 0.85
The (k, t)-interpolating model corresponds an inference model where one has access to the following sets of k, t)-補間モデルは、次の集合にアクセスする推論モデルに対応する。 0.67
noisy observations about the signal S(cid:26) Z(k(cid:48)) = AS + W(k(cid:48))(cid:112 ) (cid:26) ˜Z(k(cid:48)) = S + ˜W(k)Σk(cid:48)(cid:112) (cid:115) (cid:26) (cid:115) (cid:26) 信号 S(cid:26) Z(cid:48)) = AS + W(cid:48))(cid:112) (cid:26) > Z(k(cid:48)) = S + >W(k)Σk(cid:48)(cid:112) (cid:115) (cid:26) (cid:26) (cid:26) 0.86
Z(k) = AS + W(k) Z(k) = AS + W(k) 0.85
˜Z(k) = S + ˜W(k) tZ(k) = S + tW(k) 0.74
(cid:27)Kn (cid:27)k−1 (cid:27) (cid:27)Kn (cid:27)k−1 (cid:27) 0.71
k(cid:48)=1 k(cid:48)=1 0.78
, ∆n Kn γk(t) , オーン Kn γk(t) 0.73
(cid:27) , (cid:27) , 0.82
. Kn λk(t) . Kn λk(t) 0.92
Kn∆n k(cid:48)=k+1 クン k(cid:48)=k+1 0.58
, (33) (34) , (33) (34) 0.85
(35) (36) The first and third sets of observation correspond to similar inference channel as the original model (1) but with a higher noise variance proportional to Kn. (35) (36) 第1及び第3の観測セットは、元のモデル(1)と類似の推論チャネルに対応するが、knに比例するノイズ分散が大きい。 0.84
These correspond to the first and third terms in (30). これらは(30)の第1項および第3項に対応する。 0.75
The second and fourth sets instead correspond to decoupled Gaussian denoising models, with associated “mean-field” second and fourth √ ε + ˆZ term in (30). 第2と第4の集合は、(30)の「平均」第2と第4の「ε + εZ」項を含む分離されたガウスの分解モデルに対応する。 0.65
The last term in (30) is a perturbed term which corresponds to a Gaussian “side-channel” Y = S whose signal-to-noise ratio ε will tend to zero at the end of proof. 最後の用語(30)は、証明の最後に信号対雑音比εがゼロになる傾向があるガウスの「側チャネル」Y = Sに対応する摂動項である。 0.78
The noise variance are proportional to Kn in order to keep the average signal-to-noise ratio not dependent on Kn. 雑音分散はKnに依存しない平均信号対雑音比を保つためにKnに比例する。 0.76
A perturbed of the original and final (decoupled) models are obtained by setting k = 0, t = 0 and k = Kn, t = 1, respectively. k = 0, t = 0 と k = Kn, t = 1 をそれぞれ設定することにより、原型モデルと最終モデル(分離モデル)のパートゥルベッドを得る。 0.72
The interpolation is performed on both k and t. For each fixed k, at t changes from 0 to 1, the observation in (35) is removed from the original model and added to the decoupled model. この補間は k と t の両方で行われ、固定された k ごとに t が 0 から 1 に変化するとき、(35) における観測は元のモデルから取り除かれ、分離されたモデルに追加される。 0.75
An interesting point is that the (k, t = 1) and k + 1, t = 0-interpolating models are statistically equivalent. 興味深い点は (k, t = 1) と k + 1, t = 0 の補間モデルは統計的に等価である。 0.85
This is an adjusted model of the classical interpolation model in [6], where an interpolating path k ∈ [Kn] is added. これは古典的補間モデルの [6] における調整されたモデルであり、補間経路 k ∈ [Kn] が加算される。 0.78
This is called the adaptive interpolation method. これを適応補間法(adaptive interpolation method)と呼ぶ。 0.64
See [3] for more detailed discussion. 詳しくは[3]を参照してください。 0.74
Consider a set of observations [y, ˜y] from the following channels 下記のチャンネルからの一連の観察[y,y]を考える 0.80
y = AS + W 1√ y = AS + W 1 です。 0.74
˜y = S + ˜W 1√ s = s + sw 1 である。 0.60
γk(t) , λk(t) γk(t) , λk(t) 0.94
(37) where W ∼ N (0, Im), ˜W ∼ N (0, In), t ∈ [0, 1] is the interpolating parameter and the “signal-to-noise functions” {γk(t), λk(t)}Kn (37) ここで、W は N (0, Im), は N (0, In), t ∈ [0, 1] は補間パラメータであり、「信号対雑音関数」 {γk(t), λk(t)}Kn である。 0.83
k=1 satisfy γk(0) = ∆−1 n , k=1 満たす γk(0) = ^−1 n , 0.80
λk(0) = 0, λk(0) = 0, 0.96
γk(1) = 0, λk(1) = Σ−2 k , γk(1) = 0, λk(1) = Σ−2 k , 0.94
(38) (39) DRAFT (38) (39) DRAFT 0.85
January 28, 2021 2021年1月28日 0.75
英語(論文から抽出)日本語訳スコア
as well as the following constraint and thus 次の制約と同様に よって 0.65
δnα−1 γk(t)−1 + Ek δnα−1 γk(t)−1 + Ek 0.67
+ λk(t) = δnα−1 ∆n + Ek + λk(t) = δnα−1 ×n + Ek 0.78
= Σ−2 k dλk(t) = Σ−2 k dλk(t) 0.80
dt = − dγk(t) dt = − dγk(t) 0.88
dt δnα−1 (1 + γk(t)Ek)2 . dt δnα−1 (1 + γk(t)Ek)2。 0.70
8 (40) (41) 8 (40) (41) 0.85
We also require γk(t) to be strictly decreasing with t. The (k, t)-interpolating model has an associated posterior distribution, Gibbs expectation (cid:104)−(cid:105)k,t;ε and (k, t)-interpolating free energy fk,t;ε: また、(k, t)-補間モデルは関連する後続分布を持ち、ギブス予想(cid:104)−(cid:105)k,t;ε)と(k, t)-補間自由エネルギーfk,t;εである。
訳抜け防止モード: また、γk(t ) を t で厳密に減少させる必要がある。 t)補間モデルには、gibbs expectation(cid:104) −(cid:105)kという、関連する後方分布がある。 t;ε と (k , t)-補間自由エネルギー fk , t;ε :
0.82
i=1 (cid:81)n (cid:82)(cid:8)(cid: 81)n (cid:90) (cid:20) i=1 (cid:81)n (cid:82)(cid:8)(cid: 81)n (cid:90) (cid:20) 0.67
˜P0(xi)e−Hk,t;ε(x;θ) シュP0(xi)e−Hk,t;ε(x;θ) 0.83
˜P0(xi)(cid:9)e−Hk,t;ε(x;θ) (cid:90) (cid:26) n(cid:89) (cid:27) P0(xi)(cid:9)e−Hk,t;ε(x;) (cid:90) (cid:26) n(cid:89) (cid:27) 0.84
dxV (x)Pk,t;ε(x|Θ), dxV (x)Pk,t;ε(x|)。 0.85
i=1 dxi ˜P0(xi) i=1 dxi (複数形 dxis) 0.67
log , Pk,t;ε(x|Θ) := ログ , Pk,t;ε(x|*) := 0.83
(cid:104)V (X)(cid:105)k,t;ε := (cid:104)V (X)(cid:105)k,t;ε := 0.96
fk,t;ε := − 1 n fk,t;ε := − 1 n 0.85
EΘ e−Hk,t;ε(x;Θ) えー e−hk,t;ε(x;θ) 0.74
Lemma 3. Let P0 have finite second moment. レマ3。 P0 を有限第二モーメントとする。 0.61
Then for initial and final systems ES∼P0 [S2] そして、初期および最終系 ES =P0[S2] に対して 0.58
|f1,0;ε − f1,0;0| ≤ O |f1,0;ε − f1,0;0| ≤ O 0.65
|fKn,1;ε − fKn,1;0| ≤ O |fKn,1;ε − fKn,1;0| ≤ O 0.74
ES∼P0 [S2]. ES*P0[S2]。 0.59
Proof. Using the similar arguments as Lemma 1, Section II in [3], we have 証明。 同様の議論を Lemma 1, Section II in [3] として使うと、 0.71
i=1 (cid:18) ε (cid:18) ε i=1 (cid:18)ε(cid:18)ε 0.67
2n1−α 2n1−α 2n1−α 2n1−α 0.39
(cid:19) (cid:19) (cid:19)(cid:19) 0.73
[S2] E S∼ ˜P0 ES∼P0[S2] [S2] P0 は S0 である。 0.72
k n (cid:18) ε kn (cid:18)ε 0.62
(cid:19) 2n1−α (cid:19) 2n1−α 0.59
|f1,0;ε − f1,0;0| ≤ ε 2 ε 2 f1,0;ε − f1,0;0| ≤ ε 2 ε 2 0.75
= ES∼P0[S2]. = ES*P0[S2]。 0.72
k=1; ∆) := k=1; s) := 0.90
Kn(cid:88) Kn(cid:88) 0.84
k=1 1 Kn Σ−2 k , k=1 1Kn Σ−2k。 0.64
mf ({Ek}Kn Σ−2 Kn(cid:88) HKn,1;0(x; Θ) = (cid:18) ¯x2 n(cid:88) Kn(cid:88) mf ({Ek}Kn ,−2 Kn(cid:88) HKn,1;0(x; ) = (cid:18) ,x2 n(cid:88) Kn(cid:88) 0.82
k=1 1 = i 2 k=1 1 = い2 0.74
k=1 i=1 KnΣ2 k k=1 i=1 KnΣ2 k 0.63
(cid:18) n(cid:88) (cid:18) n(cid:88) 0.78
= Σ−2 mf i − Σmf ¯xi ¯x2 Kn(cid:88) = Σ−2 mf i − Σmf >xi >x2 Kn(cid:88) 0.75
Σmf(cid:112)KnΣ2 Σmf(cid:112)KnΣ2 0.64
k=1 k hmf (x, S, A, ˜W(k), KnΣ−2 k ) k=1 k hmf (x, S, A, >W(k), KnΣ−2 k ) 0.79
(cid:19) −(cid:113) Kn(cid:88) (cid:19) -(cid:113)Kn(cid:88) 0.81
k=1 KnΣ2 k ¯xi ˜W (k) k=1 KnΣ2 k (複数形 ks) 0.57
µ Σmf(cid:112)KnΣ2 µ Σmf(cid:112)KnΣ2 0.75
k ˜W (k) k W (複数形 Ws) 0.70
µ (cid:19) µ (cid:19) 0.82
. µ ∼ N (0, 1), ˜W (k) . μ, N (0, 1), W (k) である。 0.86
(cid:21) . (cid:21) . 0.82
(42) (43) (44) (42) (43) (44) 0.85
(45) (46) (47) (45) (46) (47) 0.85
(48) (49) (50) (48) (49) (50) 0.85
(51) (52) (53) (51) (52) (53) 0.85
(54) Similarly, we come to the other inequality. (54) 同様に、私たちは他の不平等に近づきます。 0.73
Now, by defining さて 定義することで 0.76
= O from (30), we have Since -O 30)から 以来 0.52
i=1 ˜Wi := January 28, 2021 i=1 ~Wi:= 2021年1月28日 0.73
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
dxi ˜P0(xi)e dxi (複数形 dxis) 0.64
i −Σmf ¯xi ˜Wi i −Σmf >xi >Wi 0.48
(cid:0)¯x2 (cid:0)¯x2−Σmf ¯x ˜W(cid:1)(cid:21) (cid:0) _x2(cid:0) _x2−σmf _x(cid:1)(cid:21) 0.58
−Σ −2 mf k=1; ∆n), −Σ -2mf k=1 である。 0.77
fKn,1;0 = − 1 n fKn,1;0 = − 1 n 0.94
E (cid:20) へえ (cid:20) 0.64
(cid:20) n(cid:88) (cid:90) (cid:20) n(cid:88) (cid:90) 0.76
i=1 (cid:90) i=1 (cid:90) 0.69
log −Σ −2 mf ログ −Σ -2mf 0.73
1 = log dx ˜P0(x)e 1 = ログ dx > P0(x)e 0.80
= E n1−α in,den(Σmf ({Ek}Kn (cid:90) (cid:26) n(cid:89) = En1−α in,den(Σmf ({Ek}Kn (cid:90) (cid:26) n(cid:89) 0.84
(cid:20) f1,0;0 = − 1 n (cid:20) f1,0;0 = − 1 n 0.82
E log i=1 (cid:1)(cid:21) へえ ログ i=1 (cid:1)(cid:21) 0.64
(cid:21) dxi ˜P0(xi)e−H(x;A,S,W)} (cid:21) dxi \P0(xi)e−H(x;A,S,W)} 0.86
= fn n1−α . = fn n1-α。 0.69
dfk,t;ε = dt Ak,t;ε := dfk,t;ε = dt Ak,t;ε := 0.85
Bk,t;ε := 1 Kn dγk(t) Bk,t;ε := 1 Kn dγk(t) 0.88
dt (cid:1), (cid:0)Ak,t;ε + Bk,t;ε (cid:20)(cid:28)(cid :2)A ¯X(cid:3)2 m(cid:88) (cid:115) (cid:29) (cid:2)A ¯X(cid:3) (cid:115) (cid:20)(cid:28) n(cid:88) dt (cid:1, (cid:0)Ak,t;ε + Bk,t;ε (cid:20)(cid:28)(cid :2)(cid:3)2 m(cid:88) (cid:115) (cid:29) (cid:2)(cid:115) (cid:115) (cid:20)(cid:28) n(cid:88) 0.84
Kn γk(t) µW (k) Kn γk(t) μW(k) 0.98
1 2n µ=1 E 1 2n µ=1 へえ 0.72
µ µ E i − ¯X 2 µ µ へえ i − ~X 2 0.78
dλk(t) dt 1 2n dλk(t) dt 1 2n 0.86
i=1 − (cid:21) i=1 − (cid:21) 0.74
, k,t;ε Kn λk(t) , k,t;ε Kn λk(t) 0.90
¯Xi ˜W (k) k (複数形 ks) 0.55
i (cid:29) 私は (cid:29) 0.66
(cid:21) , (cid:21) , 0.82
k,t;ε 9 (55) k,t;ε 9 (55) 0.85
(56) (57) (58) (56) (57) (58) 0.85
(59) (60) (61) (59) (60) (61) 0.85
(62) (63) it holds from (53) that (62) (63) それは(53)から成り立ちます 0.83
Hence, we have HKn,1;0(x; Θ) = Σ−2 したがって、我々は HKn,1;0(x; s) = Σ−2 0.87
mf (cid:18) n(cid:88) mf (cid:18) n(cid:88) 0.82
i=1 i − Σmf ¯xi ˜Wi ¯x2 i=1 i − Σmf >xi >Wi >x2 0.55
(cid:19) . (cid:19) . 0.82
where (58) follows from (5). ここで (58) は (5) から従う。 0.79
Similarly, we can show that 同様に、私たちはそれを示せる。 0.53
In addition, we can prove (with ¯X = X − S) that さらに、(X = X − S で)そのことを証明できる。 0.74
where E denotes the average w.r.t. E は平均 w.r.t. を表す。 0.58
X and all quenched random variables Θ, and (cid:104)−(cid:105)k,t;ε is the Gibbs average with Hamiltonian (30). X と全ての焼成ランダム変数は、(cid:104)−(cid:105)k,t;ε は、ハミルトン平均 (30) である。 0.73
Now, since E[W k 今、E[W k]以来 0.81
µ ] = 0, it is easy to see that n1−αAk,t;ε = μ ] = 0 ならば、n1−αAk,t;ε = であることが容易にわかる。 0.75
dγk(t) 1 dt dγk(t) 1 dt 0.85
2nα m(cid:88) 2nα m(cid:88) 0.71
µ=1 E(cid:2)(cid:10)(cid :2)A ¯X(cid:3) µ=1 E(cid:2)(cid:10)(cid :2)A(cid:3) 0.80
µ (cid:11)2 µ (cid:11)2 0.85
(cid:3) k,t;ε (cid:3) k,t;ε 0.82
where = dγk(t) どこに = dγk(t) 0.79
dt δ 2 ymmsek,t;ε, dt δ 2 ymmsek,t;ε, 0.85
ymmsek,t;ε := ymmsek,t;ε := 0.85
1 m E(cid:2)(cid:13)(cid :13)A((cid:104)X(cid :105)k,t;ε − S)(cid:13)(cid:13)2( cid:3). 1m E(cid:2)(cid:13)(cid :13)A((cid:104)X(cid :105)k,t;ε − S)(cid:13)(cid:13)2( cid:3)。 0.81
is refered to as“measurement minimum mean-square error”. は「測定最小平均二乗誤差」と呼ばれる。 0.79
January 28, 2021 2021年1月28日 0.75
(64) (65) (66) (64) (65) (66) 0.85
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
For Bk,t;ε, we proceed similarly and find n1−αBk,t;ε = bk,t;ε の場合、同様に進み n1−αbk,t;ε = を見つける。 0.73
dλk(t) 1 dt dλk(t) 1 dt 0.85
2nα n(cid:88) 2nα n(cid:88) 0.71
i=1 E[(cid:104) ¯X 2 i=1 E[(cid:104) > X 2 0.72
i (cid:105)k,t;ε] i (cid:105)k,t;ε] 1.00
E[(cid:107)(cid:104)X( cid:105)k,t;ε − S(cid:107)2] E[(cid:107)(cid:104)X( cid:105)k,t;ε − S(cid:107)2] 0.92
dλk(t) dt = = − dγk(t) dλk(t) dt = − dγk(t) 0.86
1 2nα dt 1 1 2nα dt 1 0.78
(1 + γk(t)Ek)2 (1 + γk(t)Ek)2 0.93
nα−1mmsek,t;ε, nα−1mmsek,t;ε, 0.75
δ 2 where the normalized minimum mean-square-error (MMSE) defined as δ 2 正規化された最小平均二乗誤差 (mmse) を 0.73
mmsek,t;ε := mmsek,t;ε := 0.85
1 nα E[(cid:107)(cid:104)X( cid:105)k,t;ε − S(cid:107)2]. 1nα E[(cid:107)(cid:104)X( cid:105)k,t;ε − S(cid:107)2] 0.85
10 (67) (68) 10 (67) (68) 0.85
(69) (70) By the construction, we have the following coherency property: The (k, t = 1) and (k + 1, t = 0) models are equivalent (the Hamiltonian is invariant under this change) and thus fk,1;ε = fk+1,0;ε for any k [3]. (69) (70) 構成により、次のコヒーレンシー特性を持つ: (k, t = 1) および (k + 1, t = 0) モデルは同値である(ハミルトンはこの変化の下で不変である)、したがって fk,1;ε = fk+1,0; 任意の k [3] に対して。 0.84
This implies that the (k, t)-interpolating free energy satisfies これは (k, t) 補間自由エネルギーが満足することを意味する 0.81
It follows that From (65), (69), and (74), we obtain(cid:90) bn その通りです から(65)、(69)、(74)、我々は(cid:90)bnを取得します。 0.64
(cid:19) . (cid:19) . 0.82
(71) (72) (73) (71) (72) (73) 0.85
(74) (75) f1,0;ε = fKn,1;ε + (74) (75) f1,0;ε = fKn,1;ε + 0.82
(fk,0;ε − fk,1;ε) (fk,0;ε − fk,1;ε) 0.84
k=1 Kn(cid:88) (cid:90) 1 = fKn,1;ε − Kn(cid:88) (cid:90) 1 Kn(cid:88) Kn(cid:88) k=1 Kn(cid:88) (cid:90) 1 = fKn,1;ε − Kn(cid:88) (cid:90) 1 Kn(cid:88) Kn(cid:88) 0.70
k=1 k=1 0 0 k=1 k=1 0 0 0.72
n1−α k=1 0 n1−α k=1 0 0.64
dt dfk,t;ε dt dfk,t;ε 0.85
dt . dfk,t;ε dt . dfk,t;ε 0.85
dt (cid:90) 1 dt (cid:90)1 0.82
dt (cid:18) dt (cid:18) 0.82
dt Ak,t;ε + Bk,t;ε dt Ak,t;ε + Bk,t;ε 0.85
(cid:90) bn (cid:90) bn (cid:90) bn (cid:90) bn 0.81
an an n1−αdε アン アン n1−αdε 0.46
dεf1,0;ε (cid:26) fKn,1;ε − fKn,1;0 (cid:18) (cid:90) 1 Kn(cid:88) dεf1,0;ε (cid:26) fKn,1;ε − fKn,1;0 (cid:18) (cid:90) 1 Kn(cid:88) 0.64
(cid:0){Ek}Kn (cid:0){Ek}Kn 0.94
(cid:27) k=1; ∆(cid:1)(cid:19) (cid:19) (cid:27) k=1; (cid:1)(cid:19) (cid:19) 0.74
(cid:18) − δ 2Kn ymmsek,t;ε − mmsek,t;εnα−1 (cid:18) δ 2Kn ymmsek,t;ε − mmsek,t;εnα−1 0.84
dγk(t) dεin,den dγk(t) dεin,den 0.81
Σmf k=1 dt Σmf k=1 dt 0.74
dt 0 (1 + γk(t)Ek)2 dt 0 (1 + γk(t)Ek)2 0.88
× an fn = n1−αfKn,1;ε − n1−α × アン fn = n1−αfKn,1;ε − n1−α 0.64
= n1−αfKn,1;ε − 1 Kn (cid:90) bn n1−αfKn,1;ε − 1 Kn (cid:90) bn 0.72
dεfn = n1−α dεfn = n1−α 0.52
an = + . (76) アン = + . (76) 0.78
Using the same proof as [3], the following lemmas can be verified to hold for the new settings: 3]と同じ証明を使用して、次の補題を検証して、新しい設定を保持することができます。 0.70
January 28, 2021 2021年1月28日 0.75
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
Lemma 4. Fix a discrete P0 with bounded support. レマ4。 有界なサポートを持つ離散P0を修正。 0.59
For any sequence Kn → +∞ and 0 < an < bn < 1 (that tend to zero slowly enough in the application), and trial parameters {Ek = E(n) k=1 which are differentiable, bounded and non-increasing in ε, we have 任意の列 Kn → +∞ と 0 < an < bn < 1 (アプリケーションで十分ゆっくりゼロになる傾向がある) に対して、試行パラメータ {Ek = E(n) k=1 は ε において微分可能で有界で非増加的である。 0.85
k (ε)}Kn Kn(cid:88) k (ε)}Kn Kn(cid:88) 0.85
(cid:90) 1 k=1 (cid:90)1 k=1 0.69
0 1 Kn (cid:90) bn 0 1Kn (cid:90)bn 0.79
an − mmsek,t;ε アン − mmsek,t;ε 0.74
n1−α + γk(t)mmsek,t;ε n n−γ) n1−α + γk(t)mmsek,t;ε n n−γ) 0.84
= O(a−2 (cid:18) O(a−2) (cid:18) 0.74
(cid:19) dt (cid:19) dt 0.82
dγk(t) dt ymmsek,t;ε dγk(t) dt ymmsek,t;ε 0.85
11 (77) (78) 11 (77) (78) 0.85
(79) (80) (81) (79) (80) (81) 0.85
(82) (83) for some 0 < γ < 1. (82) (83) 0 < γ < 1 に対して。 0.84
Proof. This lemma is a generalization of (93) in [3]. 証明。 この補題は [3] における (93) の一般化である。 0.72
We omit the proof of this lemma. 我々はこの補題の証明を省略する。 0.70
In addition, we can prove another interesting fact. さらに、別の興味深い事実を証明できます。 0.73
Lemma 5. The following holds: レマ5。 以下の通りです。 0.58
Proof. Observe that Now, we have 証明。 観察する。 今 我々は 0.62
(cid:12)(cid:12)mmse k,t;ε − mmsek,0;ε (cid:12)(cid:12) = O (cid:90) 1 (cid:12)(cid:12)mmse k,t;ε − mmsek,0;ε (cid:12)(cid:12) = O (cid:90) 1 0.82
mmsek,t;ε − mmsek,0;ε = mmsek,t;ε − mmsek,0;ε = 1.00
(cid:18) nα (cid:18)nα 0.73
Kn (cid:19) Kn (cid:19) 0.82
. dmmsek,ν;ε . dmmsek,ν;ε 0.85
dν. 0 dν nα dmmsek,ν;ε dν。 0 dν nα dmmsek,ν;ε 0.86
dν E[(cid:107)(cid:104)X( cid:105)k,ν;ε − S(cid:107)2] d dν E[(cid:107)(cid:104)X( cid:105)k,ν;ε(cid:107)2] − 2E d dν dν E[(cid:107)(cid:104)X( cid:105)k,ν;ε − S(cid:107)2] d dν E[(cid:107)(cid:104)X( cid:105)k,ν;ε(cid:107)2] − 2E ddν 0.89
(cid:20) = (cid:20) = 0.82
= ST d dν (cid:21) = ST d dν (cid:21) 0.86
. (cid:104)X(cid:105)k ,ν;ε . (cid:104)X(cid:105)k ,ν;ε 0.87
(cid:29) (cid:28) dHk,ν;ε(X, Θ) (cid:29) (cid:29) (cid:28) dHk,ν;ε(X, s) (cid:29) 0.89
dHk,ν;ε(X, Θ) dhk,ν;ε(x,θ) 0.74
dν . k,ν;ε dν . k,ν;ε 0.83
X 1 nα dν xisi, X 1nα dν xisi氏。 0.77
n(cid:88) i=1 n(cid:88) i=1 0.71
Now, it is easy to see that さて、それを見るのは簡単です。 0.65
d dν (cid:104)X(cid:105)k ,ν;ε = (cid:104)X(cid:105)k ,ν;ε d dν (cid:104)X(cid:105)k ,ν;ε = (cid:104)X(cid:105)k ,ν;ε 0.89
(cid:28) − (cid:28) − 0.82
Define which is a normalized overlap between x and s. 定義 x と s の間の正規化された重なりです 0.70
qx,s := January 28, 2021 qx,s := 2021年1月28日 0.80
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
Let X(cid:48) is a replica of X, i.e. X(cid:48) は X の複製である。 0.74
Pk,ν;ε(x, x(cid:48)|θ) = Pk,ν;ε(x|θ)Pk,ν;ε(x(cid:48)|θ), then it holds that pk,ν;ε(x, x(cid:48)|θ) = pk,ν;ε(x|θ)pk,ν;ε(x(cid:48)|θ) である。 0.90
(cid:20) E (cid:20) へえ 0.64
ST d dν (cid:104)X(cid:105)k ,ν;ε ST d dν (cid:104)X(cid:105)k ,ν;ε 0.92
= nαE (cid:104)qX,S(cid:10 5)k,ν;ε nαE (cid:104)qX,S(cid:10 5)k,ν;ε 0.80
(cid:21) (cid:20) (cid:21) (cid:20) 0.78
(cid:28) − (cid:28) − 0.82
qX,S (cid:20)(cid:28) qX,S (cid:20)(cid:28) 0.80
(cid:29) dHk,ν;ε(X, Θ) (cid:29) dhk,ν;ε(x,θ) 0.76
(cid:28) dHk,ν;ε(X, Θ) (cid:29) (cid:21) (cid:29) (cid:18) dHk,ν;ε(X(cid:48), Θ) (cid:21) (cid:28) dHk,ν;ε(X, s) (cid:29) (cid:29) (cid:29) (cid:18) dHk,ν;ε(X(cid:48) (cid:21) 0.91
(cid:19)(cid:29) (cid:19)(cid:29) 0.75
k,ν;ε dν dν k,ν;ε dν dν 0.81
dν = nαE − dHk,ν;ε(X, Θ) dν = nαE − dHk,ν;ε(X, y) 0.86
qX,S (cid:18) qX,S (cid:18) 0.82
dν (cid:18) dν (cid:18) 0.78
h X, S, A, W(k), H X, S, A, W(k) 0.76
+ d dν hmf + d dν フンフ 0.73
X, S, ˜W(k), X, S, W(k) である。 0.84
. k,ν;ε (cid:19) (cid:19) . k,ν;ε (cid:19)(cid:19) 0.81
, Kn γk(ν) Kn γk(ν) , Kn γk(ν) Kn γk(ν) 0.92
(cid:19) Now, observe that (cid:19) 今、観察する。 0.73
dHk,ν;ε(X, Θ) dhk,ν;ε(x,θ) 0.74
dν = d dν where dν = d dν どこに 0.80
and d dν hmf そして d dν フンフ 0.69
(cid:18) d dν (cid:18) d dν 0.83
h = 2Kn 1 (cid:115) H = 2Kn 1 (cid:115) 0.81
− X, S, A, W(k), − X, S, A, W(k) 0.80
dν Kn γk(ν) dν Kn γk(ν) 0.89
(cid:19)(cid:18) m(cid:88) (cid:18) dγk(ν) m(cid:88) (cid:19) (cid:19)(cid:18) m(cid:88) (cid:18) dγk(ν) m(cid:88) (cid:19) 0.75
Kn γk(ν) µ=1 Kn γk(ν) µ=1 0.89
µ=1 [AX]2 µ µ=1 [AX]2μ 0.80
(cid:19) [AX]µW (k) (cid:19) [AX]μW(k) 0.87
µ X, S, ˜W(k), µ X, S, W(k) である。 0.84
(cid:18) (cid:18) dλk(ν) (cid:20) (cid:18) (cid:18) dλk(ν) (cid:20) 0.75
Kn λk(ν) (cid:19)(cid:18) n(cid:88) (cid:21) Kn λk(ν) (cid:19)(cid:18) n(cid:88)(cid:21) 0.87
i=1 i − ¯X 2 i=1 i − ~X 2 0.75
µ ] = 0, we finally have μ ] = 0 とすると 0.57
(cid:18) (cid:104)X(cid:105)k ,ν;ε (cid:18) (cid:104)X(cid:105)k ,ν;ε 0.84
= nα 2Kn dν g(X, S) − g(X(cid:48), S) = nα2Kn dν g(X, S) − g(X(cid:48), S) 0.82
× E qX,S (cid:115) ×E qX,S (cid:115) 0.72
Kn λk(ν) n(cid:88) (cid:19) (cid:18) dγk(ν) (cid:19)(cid:29) Kn λk(ν) n(cid:88) (cid:19) (cid:18) dγk(ν) (cid:19)(cid:29) 0.87
i=1 1 = 2Kn i=1 1 = 2Kn 0.77
dν µ ] = 0 and E[ ˜W (k) ST d dν dν μ ] = 0 および E[ >W (k) ST d dν 0.95
E (cid:20)(cid:28) へえ (cid:20)(cid:28) 0.63
Using the fact that E[W (k) E[W (k) という事実を用いて 0.86
where m(cid:88) どこに m(cid:88) 0.76
[Ax]2 µ − g(x, s) := [Ax]2 µ − g(x, s) := 0.85
δ Hence, by Cauchy-Schwarz’s inequality, we obtain δ したがってコーシー=シュワルツの不等式によって 0.71
, (cid:19) , (cid:19) 0.82
. ¯Xi ˜W (k) . k (複数形 ks) 0.70
i (cid:21) n(cid:88) 私は (cid:21) n(cid:88) 0.66
, k,v;ε ¯x2 i . , k,v;ε ×x2 i です。 0.73
(1 + γk(ν)Ek)2 (1 + γk(ν)Ek)2 0.93
µ=1 (cid:12)(cid:12)(cid :12)(cid:12)E (cid:20) ×(cid:113)E[(cid:104)q2 µ=1 (cid:12)(cid:12)(cid :12)(cid:12)(cid:20) ×(cid:113)E[(cid:104) q2 0.78
ST d dν (cid:21)(cid:12)(cid :12)(cid:12)(cid:12) ≤ nα ST d dν (cid:21)(cid:12)(cid :12)(cid:12)(cid:12) (≤ nα) 0.83
(cid:12)(cid:12)(cid :12)(cid:12) dγk(ν) (cid:12)(cid:12)(cid :12)(cid:12) dγk(ν) 0.74
dν (cid:12)(cid:12)(cid :12)(cid:12) dν (cid:12)(cid:12)(cid :12) 0.86
(cid:104)X(cid:105)k ,ν;ε X,S(cid:105)k,ν;ε]E[(cid:104)g(X, S)2(cid:105)k,ν;ε]. (cid:104)X(cid:105)k ,ν;ε X,S(cid:105)k,ν;ε]E[(cid:104)g(X,S)2(cid :105)k,ν;ε] 0.98
Kn i=1 12 (84) Kn i=1 12 (84) 0.78
(85) (86) (87) (85) (86) (87) 0.85
(88) (89) (90) (88) (89) (90) 0.85
(91) January 28, 2021 (91) 2021年1月28日 0.80
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
Now, we have E[(cid:104)q2 今 我々は E[(cid:104)q2 0.75
E[(cid:104)XiXjSiSj(ci d:105)k,ν;ε] E[(cid:104)XiXjSiSj(ci d:105)k,ν;ε] 0.99
n(cid:88) (cid:113)E[(cid:104)X 2 n(cid:88) (cid:113)E[(cid:104)X 2 0.88
1 n2α i,j=1 1 n2α i,j=1 0.75
E[S2 i S2 j ] E[S2] i S2 j ] 0.86
ES∼P0 [S4] + n2 essp0[s4] + n2 0.65
(cid:19)(cid:19) (cid:19)(cid:19) 0.75
nα + n2α i,j=1 nα + n2α i,j=1 0.73
≤ 1 n2α X,S(cid:105)k,ν;ε] = n(cid:88) n(cid:88) (cid:18) (cid:18) 1 ≤ 1 n2α X,S(cid:105)k,ν;ε] = n(cid:88) n(cid:88) (cid:18) (cid:18) 1 0.83
≤ 1 n2α 1 n2α ≤ 1 n2α 1 n2α 0.75
k n (cid:18) kn (cid:18) 0.62
i,j=1 = n = O i,j=1 = n -O 0.77
n2α = O(1) i X 2 n2α =O(1) i X 2 0.74
j (cid:105)k,ν;ε]E[S2 j (cid:105)k,ν;ε]E[S2 0.97
i S2 j ] (cid:18) k i S2 j ] (cid:18)k 0.90
(cid:19)2 n (cid:19)2 n 0.85
(cid:19) (ES∼P0[S2])2 (cid:19) (ES)P0[S2])2 0.79
where the last inequality follows from the assumption that ES∼P0 [S4] is bounded above. ここで、最後の不等式は ES\P0[S4] が上界であるという仮定から従う。 0.56
By using Cauchy-Schwarz’s inequality and the fact that Ek ≥ 0, γk(ν) ≥ 0 for all ν ∈ [0, 1], it can be similarly コーシー=シュワルツの不等式と、すべてのν ∈ [0, 1] に対して ek ≥ 0, γk(ν) ≥ 0 であることを用いることで、同様のことができる。 0.71
shown that Finally, by combining all the above facts and the non-decreasing of γk(ν) in (0, 1), we finally obtain 示しました 最後に、上記の全ての事実と (0, 1) における γk(ν) の非退化を組み合わせることで、最終的に得られる。 0.69
13 (92) (93) 13 (92) (93) 0.85
(94) (95) (96) (94) (95) (96) 0.85
(97) (98) (99) (97) (98) (99) 0.85
(100) (101) (100) (101) 0.85
(102) (103) (102) (103) 0.85
DRAFT E[(cid:104)g(X, S)2(cid:105)k,ν;ε] = O(n2α). DRAFT E[(cid:104)g(X, S)2(cid:105)k,ν;ε] = O(n2α)。 0.89
nα|mmsek,t;ε − mmsek,0;ε| ≤ nα nα|mmsek,t;ε −mmsek,0;ε|≤ nα 0.75
E[(cid:107)(cid:104)X( cid:105)k,ν;ε(cid:107)2]dν E[(cid:107)(cid:104)X( cid:105)k,ν;ε(cid:107)2]dν 0.88
d dν (cid:90) 1 (cid:90) 1 (cid:18) n2α d dν (cid:90) 1 (cid:90) 1 (cid:18) n2α 0.81
0 0 + nα Kn 0 0 + nαKn 0.85
= nα = O d dν =nα -O d dν 0.77
(cid:19) . (cid:19) . 0.82
O(nα)dν E[(cid:107)S(cid:107)2 ]dν + O(nα)dν E[(cid:107)S(cid:107)2 ]dν + 0.90
nα Kn (cid:90) 1 nαKn (cid:90)1 0.82
0 O(nα)dν (cid:90) 1 0 O(nα)dν (cid:90)1 0.84
0 (cid:18) 0 (cid:18) 0.82
(cid:18) Σmf{Ek}Kn (cid:18) Σmf{Ek}Kn 0.89
k=1; ∆n (cid:19) k=1; (cid:19) 0.81
Kn This concludes our proof of Lemma 5. Kn これはLemma 5の証明を結論付ける。 0.68
Return to the proof of our main theorem. 主定理の証明に戻ります。 0.56
Define the following identity as [3]: 次のidを [3] と定義する。 0.67
ψ(Ek; ∆n) := ψ(ek; sn) := 0.76
dγk(t) Ek dt dγk(t) ek dt 0.80
(1 + γk(t)Ek)2 (1 + γk(t)Ek)2 0.93
(cid:90) 1 0 (cid:90)1 0 0.82
dt (cid:19) dt (cid:19) 0.82
, δ 2 Ek 1 + γk(t)Ek , δ2 Ek 1 + γk(t)Ek 0.88
and let − ˜fn,RS({Ek}Kn そして、 − Fn,RS({Ek}Kn) 0.75
k=1; ∆n) := in,den k=1; sn) := in,den 0.96
Kn(cid:88) Kn(cid:88) 0.84
k=1 ψ(Ek; ∆n). k=1 ψ(ek) と表記される。 0.57
+ 1 Kn January 28, 2021 + 1Kn 2021年1月28日 0.78
英語(論文から抽出)日本語訳スコア
Now, since γk(t) is non-creasing in t ∈ [0, 1], it holds that dγk(t) 現在、 γk(t) は t ∈ [0, 1] において非増分であるため、dγk(t) が成り立つ。 0.78
(cid:26) dt ≤ 0. (cid:26) dt ≤ 0。 0.90
Hence, from (104), we obtain fKn,1;ε − fKn,1;0 したがって (104) から fKn,1;ε − fKn,1;0 を得る。 0.77
(cid:27) n1−αdε (cid:27) n1−αdε 0.56
n n−γ). By setting Ek = arg minE≥0 fn,RS(E; ∆n) for all k ∈ [Kn], from (105), we have n n−γ) n n−γ)。 105 からすべての k ∈ [Kn] に対して Ek = arg minE≥0 fn,RS(E; sn) を設定することにより、nn−γ となる。 0.82
fn,RS(E; ∆n) + O(a−3 fn,RS(E; sn) + O(a−3) 0.93
k=1; ∆n) + O(a−2 k=1; sn) + O(a−2) 0.73
dε ˜fn,RS({Ek}Kn dε ・fn,RS({Ek}Kn) 0.87
fn ≤ O(1)ε + min E≥0 fn ≤ O(1)ε + min E≥0 1.00
+ an for some γ > 0. + アン いくつかの γ > 0 に対して。 0.66
By taking ε → 0, we achieve an upper bound ε → 0 を取ることにより、上界を得る。 0.82
On the other hand, from Lemma 5 and (104), by choosing Kn = Ω(nα+b) for some b > 1, we obtain 一方、Lemma 5 と (104 から、ある b > 1 に対して Kn = Ω(nα+b) を選択することによって得られる。 0.83
(cid:90) 2an (cid:90)2an 0.67
an + + × (cid:90) 2an アン + + × (cid:90)2an 0.75
an (cid:90) 2an アン (cid:90)2an 0.59
an + + × (cid:90) 2an アン + + × (cid:90)2an 0.75
an + (cid:90) 2an アン + (cid:90)2an 0.68
an (cid:26) アン (cid:26) 0.65
n1−αdε fKn,1;ε − fKn,1;0 n1−αdε fKn,1;ε − fKn,1;0 0.56
(cid:27) dεfn = (cid:27) dεfn = 0.75
(cid:90) 2an (cid:90)2an 0.67
an δ 2Kn dε ˜fn,RS({Ek}Kn アン δ 2Kn dε ・fn,RS({Ek}Kn) 0.75
k=1; ∆n) (cid:90) 2an k=1; sn) (cid:90)2an 0.72
Kn(cid:88) Kn(cid:88) 0.84
(cid:90) 1 dε (cid:90)1 dε 0.79
dt dγk(t) dt dt dγk(t) dt 0.85
an k=1 0 γk(t)(Ek − mmsek,t;εnα−1)2 アン k=1 0 γk(t)(Ek − mmsek,t;εnα−1)2 0.71
(1 + γk(t)Ek)2(1 + γk(t)mmsek,t;εn1−α) + O(a−2 1 + γk(t)Ek)2(1 + γk(t)mmsek,t;εn1−α) + O(a−2) 0.90
n n−γ). (cid:90) 2an n n−γ)。 (cid:90)2an 0.72
dεfn ≤ (cid:90) 2an dεfn ≤ (cid:90)2an 0.69
an fn − min E≥0 アン fn − min E≥0 0.68
fn,RS(E; ∆n) ≤ O(a−3 fn,RS(E; yn) ≤ O(a−3) 0.94
n n−γ). (cid:90) 2an n n−γ)。 (cid:90)2an 0.72
an dεfn = (cid:90) 2an アン dεfn = (cid:90)2an 0.63
n1−αdε fKn,1;ε − fKn,1;0 n1−αdε fKn,1;ε − fKn,1;0 0.56
an δ 2Kn dε ˜fn,RS({Ek}Kn アン δ 2Kn dε ・fn,RS({Ek}Kn) 0.75
k=1; ∆n) (cid:90) 2an k=1; sn) (cid:90)2an 0.72
Kn(cid:88) Kn(cid:88) 0.84
(cid:90) 1 dε (cid:90)1 dε 0.79
dt dγk(t) dt dt dγk(t) dt 0.85
an k=1 0 γk(t)(Ek − mmsek,0;εnα−1)2 アン k=1 0 γk(t)(Ek − mmsek,0;εnα−1)2 0.68
(1 + γk(t)Ek)2(1 + γk(t)mmsek,0;εn1−α) + O(a−2 (1 + γk(t)Ek)2(1 + γk(t)mmsek,0;εn1−α) + O(a−2) 0.82
(cid:26) (cid:26) (cid:26) (cid:26) 0.78
n n−γ). (cid:90) 2an n n−γ)。 (cid:90)2an 0.72
dεfn = (cid:90) 2an dεfn = (cid:90)2an 0.69
an n1−αdε fKn,1;ε − fKn,1;0 アン n1−αdε fKn,1;ε − fKn,1;0 0.55
dε ˜fn,RS({Ek}Kn dε ・fn,RS({Ek}Kn) 0.87
k=1; ∆n) (cid:27) k=1; sn) (cid:27) 0.78
(cid:27) From (76) and Lemma 4, we obtain as an → 0 that (cid:27) 76) と Lemma 4 から a → 0 として取得します。 0.78
By choosing Ek = mmsek,0;εnα−1 for all k ∈ [Kn], from (108) we have すべての k ∈ [Kn] に対して Ek = mmsek,0;εnα−1 を選択することで、 (108) から得られる。 0.67
an January 28, 2021 アン 2021年1月28日 0.63
14 (104) (105) 14 (104) (105) 0.85
(106) (107) (106) (107) 0.85
(108) (109) (108) (109) 0.85
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
:= δnα−1/(Ek + ∆n) for all k ∈ [Kn]. すべての k ∈ [Kn] に対して δnα−1/(Ek + sn) が成り立つ。 0.71
For a given ∆n, set ψ∆n (Σ−2) = ψ(δnα−1/Σ−2 − ∆n; ∆n). 与えられた σn に対して、 ψn (σ−2) = ψ(δnα−1/σ−2 − )n とする。 0.42
Now, let Σ−2 (cid:18) Since ψ∆n (·) is a convex function, from (103), we are easy to see that さて、σ−2 (cid:18) とすると、(103) から ψn (·) は凸函数であるので、容易に分かる。 0.69
(cid:18) k (cid:18) k 0.82
(cid:19)(cid:19) (cid:19)(cid:19) 0.75
˜fn,RS({Ek}Kn Fn,RS({Ek}Kn) 0.81
k=1; ∆n) = in,den k=1; sn) = in,den 0.91
Σmf {Ek}Kn Σmf {Ek}Kn 0.82
k=1; ∆n Kn(cid:88) (cid:18) (cid:18) k=1; Kn(cid:88) (cid:18) (cid:18) 0.80
k=1 (cid:18) k=1 (cid:18) 0.69
+ 1 Kn ψ∆(Σ−2 k ) + 1Kn は(Σ−2k) 0.77
(cid:18) ≥ in,den (cid:18) ≥ in,den 0.82
Σmf {Ek}Kn Σmf {Ek}Kn 0.82
k=1; ∆n + ψ∆n mf{Ek}Kn Σ−2 k=1; +おん mf{Ek}Kn Σ−2 0.80
k=1; ∆n (cid:19)(cid:19) (cid:19) k=1; (cid:19)(cid:19) 0.86
(cid:19) ≥ min Σ≥0 ≥ min E≥0 (cid:19) ≥ min Σ≥0 ≥ min E≥0 0.77
in,den(Σ) + ψ∆n(Σ−2) in,den(Σ) + sn(Σ−2) 0.98
fn,RS(E; ∆n) fn,RS(E; sn) 0.82
15 (110) (111) 15 (110) (111) 0.85
(112) (113) (112) (113) 0.85
(114) (115) (114) (115) 0.85
(116) (117) (116) (117) 0.85
(118) (119) (118) (119) 0.85
(120) From (109) and (113), we obtain a lower bound (120) (109) と (113) から、下限を得る。 0.74
From (107) and (114), we have 107)と(114)から、私たちは持っています。 0.60
or fn ≥ min E≥0 あるいは fn ≥ min E≥0 0.80
fn,RS(E; ∆n) + O(1)ε + O(a−3 fn,RS(E; yn) + O(1)ε + O(a−3) 0.97
n n−γ). fn − min E≥0 n n−γ)。 fn − min E≥0 0.81
fn,RS(E; ∆n) = O(a−3 fn,RS(E; sn) = O(a−3) 0.92
n n−γ), which leads to (29) by choosing the sequence an → 0 and a−3 Using the same argument as [9], we have following relations n n−γ)。 配列 an → 0 と a−3 を [9] と同じ引数を使って選択することによって (29) につながる。 0.75
I(S; Y) nα − min E≥0 I(S; Y) nα − min E≥0 0.79
fn,RS(E; ∆n) = O(a−3 n n−γ → 0. fn,RS(E; sn) = O(a−3 n-γ → 0。 0.95
n n−γ) ymmse1,0;0 = n n−γ) ymmse1,0;0 = 0.76
mmse1,0;0nα−1 mmse1,0;0nα−1 0.43
1 + mmse1,0;0nα−1/∆n 1 + mmse1,0;0nα−1/>n 0.42
+ on(1). On the other hand, it can be shown that as n → ∞, + on(1)。 一方、n → ∞ であることを示すことができる。 0.74
ymmse1,0;0 = ymmse1,0;0 = 0.74
= (cid:19)(cid:18) 1 = (cid:19)(cid:18) 1 0.82
(cid:19) dI(S; Y) (cid:18) 2 (cid:19) (cid:18) dfn,RS( ˜E(∆n); ∆n) (cid:19) dI(S; Y) (cid:18) 2 (cid:19) (cid:18) dfn,RS( se(n); sn) 0.91
δnα−1 d∆−1 δnα−1 d −1 0.44
n n 2 δ = d∆−1 n n 2 δ = d −1 0.78
n ˜E(∆n) n E (複数形 Es) 0.65
, 1 + ˜E(∆n)/∆n where (118) follows from [9]. , 1 + [9] から(118) が続く。 0.65
From (117) and (120), we obtain (7). 117および(120)から、私達は(7)を得ます。 0.73
Acknowledgements The author is extremely grateful to Prof. Ramji Venkataramanan, the University of Cambridge, for many suggestions 認識 著者はケンブリッジ大学のRamji Venkataramanan教授に多くの提案をしてくれてとても感謝している。 0.64
to improve the manuscript. 原稿を改善するためです 0.74
January 28, 2021 2021年1月28日 0.75
DRAFT DRAFT 0.85
英語(論文から抽出)日本語訳スコア
16 REFERENCES [1] T. Tanaka. 16 参考 [1]t.田中。 0.69
A statistical-mechanic s approach to large-system analysis of CDMA multiuser detectors. CDMAマルチユーザー検出器の大規模システム解析への統計力学的アプローチ 0.74
IEEE Trans. IEEE Trans。 0.82
on Inform. Th., 48(11):2888–2909, 2002. 情報提供中。 と。 48(11):2888–2909, 2002. 0.66
[2] Dongning Guo, S. Shamai, and S. Verdu. [2]Dongning Guo, S. Shamai, S. Verdu 0.68
Mutual information and minimum mean-square error in gaussian channels. ガウスチャンネルにおける相互情報と最小平均二乗誤差 0.71
IEEE Transactions on IEEE Transactions on 0.85
Information Theory, 51(4):1261–1282, 2005. 情報理論 51(4):1261–1282, 2005。 0.92
[3] Jean Barbier and Nicolas Macris. 3] Jean BarbierとNicolas Macris。 0.70
The adaptive interpolation method: a simple scheme to prove replica formulas in bayesian inference. アダプティブ補間法:ベイズ推論における複製式を証明する単純なスキーム。 0.74
Probability Theory and Related Fields, 174:1133–1185, 2017. 確率理論と関連分野 174:1133–1185, 2017 0.84
[4] Jean Barbier, Florent Krzakala, Nicolas Macris, L´eo Miolane, and Lenka Zdeborov´a. 4] Jean Barbier, Florent Krzakala, Nicolas Macris, L ́eo Miolane, Lenka Zdeborov ́a。 0.85
Optimal errors and phase transitions in high-dimensional 高次元における最適誤差と相転移 0.74
generalized linear models. In Proceedings of the 31st Conference On Learning Theory, pages 728–731, 2018. 一般化線形モデル。 第31回学習理論会議の進行において、2018年728-731ページ。 0.78
[5] Jean Barbier, Florent Krzakala, Nicolas Macris, L´eo Miolane, and Lenka Zdeborov´a. 5]Jean Barbier, Florent Krzakala, Nicolas Macris, L ́eo Miolane, Lenka Zdeborov ́a. 0.89
Optimal errors and phase transitions in high-dimensional 高次元における最適誤差と相転移 0.74
generalized linear models. Proceedings of the National Academy of Sciences, 116(12):5451–5460, 2019. 一般化線形モデル。 国立科学アカデミー紀要 116(12):5451–5460, 2019 0.69
[6] F. Guerra and F. L. Toninelli. 6] F. GuerraとF.L. Toninelli。 0.93
The thermodynamic limit in mean field spin glass models. 平均場スピンガラスモデルにおける熱力学的限界。 0.75
Communications in Mathematical Physics, 数学物理学におけるコミュニケーション 0.77
230:71–79, 2002. 230:71–79, 2002. 0.65
[7] Galen Reeves, Jiaming Xu, and Ilias Zadik. [7]Galen Reeves, Jiaming Xu, Ilias Zadik。 0.67
The all-or-nothing phenomenon in sparse linear regression. スパース線形回帰におけるオール・オア・ナッシング現象 0.49
In Proceedings of the Thirty-Second 第30次会議の進行過程 0.54
Conference on Learning Theory, pages 2652–2663, 2019. Conference on Learning Theory, pages 2652–2663, 2019 0.89
[8] J. Barbier, N. Macris, and C. Rush. 8] J. Barbier、N. Macris、C. Rush。 0.79
All-or-nothing statistical and computational phase transitions in sparse spiked matrix estimation. スパーススパイク行列推定における統計的および計算的相転移 0.70
In Advances of Neural Information Processing Systems (NIPS), 2020. 内 ニューラル情報処理システム(NIPS)の進歩 -2020年。 0.67
[9] J. Barbier, M. Dia, N. Macris, and F. Krzakala. 9] J. Barbier、M. Dia、N. Macris、F. Krzakala。 0.82
The mutual information in random linear estimation. ランダムな線形推定における相互情報。 0.79
In 2016 54th Annual Allerton 2016年第54回アレルトン 0.73
Conference on Communication, Control, and Computing (Allerton), pages 625–632, 2016. Conference on Communication, Control, and Computing (Allerton), Page 625–632, 2016 0.82
[10] M. Bayati and A. Montanari. [10]M. BayatiとA. Montanari。 0.90
The dynamics of message passing on dense graphs, with applications to compressed sensing. 高密度グラフ上を通過するメッセージのダイナミクスと圧縮センシングへの応用。 0.77
IEEE Trans. IEEE Trans。 0.82
on Inform. Th., 57(2):764–785, Feb 2011. オン 情報。 57(2):764-785, 2011年2月。 0.69
[11] D. Donoho. 11] D. Donoho。 0.77
Compressed sensing. IEEE Trans. 圧縮センシング。 IEEE Trans。 0.74
on Inform. Th., 52(1):1289–1306, 2006. 情報提供中。 2006年、52(1):1289–1306。 0.70
[12] E. Cand`es and M. Wakin. [12]E. Cand`esとM. Wakin。 0.84
An introduction to compressive sampling. 圧縮サンプリングの導入。 0.53
IEEE Signal Process. Mag., 25(2):21–30, 2008. IEEE信号処理。 2008年、25(2):21-30頁。 0.71
[13] C. A. Metzler, A. Maleki, and R. G. Baraniuk. 13] C. A. Metzler、A. Maleki、R. G. Baraniuk。 0.87
From denoising to compressed sensing. ノイズから圧縮センシングまでです 0.55
IEEE Trans. IEEE Trans。 0.82
on Inform. Th., 62(9):5117–514, 2016. 情報提供中。 62(9):5117-514, 2016。 0.70
[14] A. Montanari and R. Venkataramanan. 14] A. MontanariとR. Venkataramanan。 0.83
Estimation of low-rank matrices via approximate message passing. 近似メッセージ通過による低ランク行列の推定 0.70
Annals of Mathematical Statistics, 数学統計学のアナルズ 0.79
2020. [15] Dongning Guo and S. Verdu. 2020. 15] Dongning GuoおよびS. Verdu。 0.81
Randomly spread cdma: asymptotics via statistical physics. ランダム拡散cdma: 統計物理学による漸近症。 0.76
IEEE Trans. IEEE Trans。 0.82
on Inform. Th., 51(6):1983–2010, 情報提供中。 51(6):1983–2010。 0.67
2005. [16] G. Reeves and H. D. Pfister. 2005. 16] G. ReevesとH.D. Pfister。 0.86
The replica-symmetric prediction for random linear estimation with gaussian matrices is exact. ガウス行列を用いたランダム線形推定のレプリカ対称予測は正確である。 0.76
IEEE Trans. IEEE Trans。 0.82
on Inform. Th., 65(4):2252–2283, April 2019. 情報提供中。 2019年4月、65(4):2252–2283。 0.64
[17] J. Scarlett and V. Cevher. 17] J. ScarlettとV. Cevher。 0.85
Limits on support recovery with probabilistic models: An information-theoreti c framework. 確率モデルによるサポート回復の制限:情報理論フレームワーク。 0.77
IEEE Trans. IEEE Trans。 0.82
on Inform. Th., 63(1):593–620, 2017. オン 情報。 63(1):593–620, 2017年。 0.71
January 28, 2021 2021年1月28日 0.75
DRAFT DRAFT 0.85
                                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。