Convex-composite optimization, which minimizes an objective function
represented by the sum of a differentiable function and a convex one, is widely
used in machine learning and signal/image processing. Fast Iterative Shrinkage
Thresholding Algorithm (FISTA) is a typical method for solving this problem and
has a global convergence rate of $O(1 / k^2)$. Recently, this has been extended
to multi-objective optimization, together with the proof of the $O(1 / k^2)$
global convergence rate. However, its momentum factor is classical, and the
convergence of its iterates has not been proven. In this work, introducing some
additional hyperparameters $(a, b)$, we propose another accelerated proximal
gradient method with a general momentum factor, which is new even for the
single-objective cases. We show that our proposed method also has a global
convergence rate of $O(1/k^2)$ for any $(a,b)$, and further that the generated
sequence of iterates converges to a weak Pareto solution when $a$ is positive,
an essential property for the finite-time manifold identification. Moreover, we
report numerical results with various $(a,b)$, showing that some of these
choices give better results than the classical momentum factors.
A globally convergent fast iterative shrinkage-thresholdi ng
グローバル収束型高速反復的収縮抑制法
0.58
algorithm with a new momentum factor for single and
新しい運動量係数を用いた単調・単調のアルゴリズム
0.68
multi-objective convex optimization Hiroki Tanabe Ellen H. Fukuda Nobuo Yamashita Department of Applied Mathematics and Physics Graduate School of Informatics Kyoto University Yoshida-Honmachi, Sakyo-ku, Kyoto 606-8501, Japan
Abstract Convex-composite optimization, which minimizes an objective function represented by the sum of a differentiable function and a convex one, is widely used in machine learning and signal/image processing.
Recently, this has been extended to multi-objective optimization, together with the proof of the O(1/k2) global convergence rate.
近年、これはO(1/k2)大域収束率の証明とともに多目的最適化に拡張されている。
0.73
However, its momentum factor is classical, and the convergence of its iterates has not been proven.
しかし、その運動量係数は古典的であり、イテレートの収束は証明されていない。
0.66
In this work, introducing some additional hyperparameters (a, b), we propose another accelerated proximal gradient method with a general momentum factor, which is new even for the single-objective cases.
We show that our proposed method also has a global convergence rate of O(1/k2) for any (a, b), and further that the generated sequence of iterates converges to a weak Pareto solution when a is positive, an essential property for the finite-time manifold identification.
(1) min x∈Rn where F : Rn → (R ∪ {∞})m is a vector-valued function with F := (F1, . . . , Fm)(cid:62).
(1) min xhtmlrn ここで f : rn → (r , {∞})m は f := (f1, . . . , fm)(cid:62) を持つベクトル値関数である。
0.87
We assume that each component Fi : Rn → R ∪ {∞} is given by
各成分 Fi : Rn → R > {∞} が与えられると仮定する。
0.79
F (x), Fi(x) := fi(x) + gi(x)
F (x) fi(x) := fi(x) + gi(x)
0.36
for all i = 1, . . . , m
すべての i = 1 に対して , m である。
0.83
with convex and continuously differentiable functions fi : Rn → R, i = 1, . . . , m and closed, proper and convex functions gi : Rn → R ∪ {∞}, i = 1, . . . , m, and each ∇fi is Lipschitz continuous.
凸および連続微分可能関数 fi : Rn → R, i = 1, . . . , m および閉かつ固有かつ凸函数 gi : Rn → R . {∞}, i = 1, . . , m で、各 .fi はリプシッツ連続である。
0.77
As suggested in Tanabe et al (2019), this problem involves many important classes.
Tanabe et al (2019)で示唆されているように、この問題は多くの重要なクラスを含んでいる。
0.62
For example, it can express a convex-constrained problem if each gi is the indicator function of a convex set S, i.e.,
例えば、各giが凸集合 s の指標関数である場合、すなわち、凸拘束問題を表現することができる。
0.73
(2) (cid:40)
(2) (系統:40)
0.54
χS(x) := if x ∈ S, 0, ∞, otherwise.
~S(x) := もし x ∈ S, 0, ∞ なら、そうでなければ。
0.76
Multi-objective optimization has many applications in engineering (Eschenauer et al , 1990), statistics (Carrizosa and Frenk, 1998), and machine learning (particularly multi-task learning (Sener, 2018; Lin et al , 2019) and neural architecture search (Kim et al , 2017; Dong et al , 2018; Elsken et al ,
マルチ目的最適化には、工学(eschenauer et al , 1990)、統計(carrizosa and frenk, 1998)、機械学習(特にマルチタスク学習(sener, 2018; lin et al , 2019)、ニューラルネットワーク検索(kim et al , 2017; dong et al , 2018; elsken et al )など多くの応用がある。 訳抜け防止モード: 多目的最適化は工学に多くの応用がある(Eschenauer et al, 1990)。 統計(Carrizosa and Frenk, 1998)と機械学習(特にマルチタスク学習) 2018年; Lin et al, 2019年)と神経アーキテクチャ検索(Kim et al, 2017年; Dong et al, 2018年; Elsken et al, 2017年)
In the multi-objective case, no single point minimizes all objective functions simultaneously in general.
多目的の場合、単一点がすべての目的関数を全て同時に最小化することはない。
0.63
Therefore, we use the concept of Pareto optimality.
したがって、パレート最適性の概念を用いる。
0.68
We call a point weakly Pareto optimal if there is no other point where the objective function values are strictly smaller.
目的関数値が厳密に小さい他の点が存在しない場合、ポイントを弱パレート最適と呼ぶ。
0.76
This generalizes the usual optimality for single-objective problems.
これは単目的問題に対する通常の最適性を一般化する。
0.51
In other words, single-objective problems are considered to be included in multi-objective ones.
言い換えれば、単一目的問題は多目的問題に含まれると考えられる。
0.46
Hence, in the following, unless otherwise noted, we refer to (1) as multi-objective, including the case where m = 1.
したがって、下記のように、他の言及がない限り、(1) は m = 1 の場合を含む多目的(multi-jective)である。 訳抜け防止モード: したがって、下記のように、他の言及がない限り、 ( 1 ) を multi- objective と呼ぶ。 m = 1 の場合を含む。
0.75
One of the main strategies for multi-objective problems is the scalarization approach (Gass and Saaty, 1955; Geoffrion, 1968; Zadeh, 1963), which reduces the original multi-objective problem into a parameterized (or weighted) scalar-valued problem.
However, it requires an a priori parameters (or weights) selection, which might be challenging.
しかし、a事前パラメータ(または重み付け)の選択が必要であり、これは難しいかもしれない。
0.62
The meta-heuristics (Gandibleux et al , 2004) is also popular, but it has no theoretical convergence properties under reasonable assumptions.
メタヒューリスティックス(Gandibleux et al , 2004)も人気であるが、合理的な仮定の下では理論的収束性はない。
0.74
Many descent methods have been developed in recent years (Fukuda and Gra˜na Drummond, 2014), overcoming those drawbacks.
近年,これらの欠点を克服する多くの降下法が開発されている(fukuda and gra sna drummond, 2014)。
0.65
They decrease all objective values simultaneously at each iteration, and their global convergence property can be analyzed under reasonable assumptions.
各反復で全ての目的値を同時に減少させ、その大域収束特性は合理的な仮定で解析することができる。
0.71
For example, the steepest descent method (Fliege and Svaiter, 2000; Fliege et al , 2019; D´esid´eri, 2012) converges globally to Pareto solutions for differentiable multi-objective problems.
例えば、最も急降下法(Fliege and Svaiter, 2000; Fliege et al , 2019; D ́esid ́eri, 2012)は、微分可能な多目的問題に対するパレート解に全世界的に収束する。
0.58
From a practical point of view, its applicability has also been reported in multi-task learning (Sener, 2018; Lin et al , 2019).
実践的な観点から見ると、その適用性はマルチタスク学習でも報告されている(sener, 2018; lin et al , 2019)。
0.75
Afterwards, the projected gradient (Fukuda and Gra˜na Drummond, 2013), Newton’s (Fliege et al , 2009; Gon¸calves et al , 2021), trust-region (Carrizo et al , 2016), and conjugate gradient methods (Lucambio P´erez and Prudente, 2018) were also considered.
その後, 投影勾配 (fukuda and gra sna drummond, 2013), newton’s (fliege et al , 2009; gon scalves et al , 2021), trust-region (carrizo et al , 2016) および共役勾配法 (lucambio p ́erez and prudente, 2018) も検討された。
0.73
Moreover, the proximal point (Bonnel et al , 2005) and the inertial forward-backward methods (Bot¸ and Grad, 2018) can solve infinite-dimensional vector optimization problems.
さらに、近点 (Bonnel et al , 2005) と慣性前向き法 (Bot , and Grad, 2018) は無限次元ベクトル最適化問題を解くことができる。
0.82
(cid:112) (cid:112)
(出典:112) (出典:112)
0.67
(cid:112) This paper generalizes the associated factor by t1 = 1, tk+1 =
(出典:112) 本稿では、関連因子を t1 = 1, tk+1 = で一般化する。
0.66
For (1), the proximal gradient method (Tanabe et al , 2019, 2022a) is effective.
1) 近位勾配法(tanabe et al, 2019, 2022a)が有効である。
0.59
Using it, the merit function (Tanabe et al , 2022c), which returns zero at the Pareto solutions and strictly positive values otherwise, converges to zero with rate O(1/k) under reasonable assumptions.
これを用いて、パレート解で 0 を返し、それ以外は厳密に正の値を返すメリット関数 (tanabe et al , 2022c) は、合理的な仮定の下で o(1/k) 率で 0 に収束する。
0.65
It is also shown that the generated sequence of iterates converges to a weak Pareto solution (Bello-Cruz et al , 2022).
また,生成したイテレートの配列は弱パレート溶液に収束することを示した(bello-cruz et al, 2022)。
0.68
On the other hand, the accelerated proximal gradient method (Tanabe et al , 2022b), which generalizes the Fast Iterative Shrinkage Thresholding Algorithm (FISTA) (Beck and Teboulle, 2009) for convex-composite single-objective problems, has also been considered, along with a proof of the merit function’s O(1/k2) convergence rate.
一方,凸型単一目的問題に対する高速反復縮小しきい値アルゴリズム(fista, beck and teboulle, 2009)を一般化した高速化近位勾配法(tanabe et al , 2022b)も,メリット関数のo(1/k2)収束率の証明とともに検討されている。
0.77
However, the momentum factor used there is classical (t1 = 1, tk+1 = k − atk + b + 1/2 with hyt2 perparameters a ∈ [0, 1), b ∈ [a2/4, 1/4].
しかし、そこで使われる運動量因子は古典的(t1 = 1, tk+1 = k − atk + b + 1/2)で、 hyt2 のパラメータ a ∈ [0, 1), b ∈ [a2/4, 1/4] を持つ。
0.77
This is new even in the single-objective context, and it generalizes well-known factors.
これは単目的文脈においても新しく、よく知られた因子を一般化する。
0.60
For example, when a = 0 and b = 1/4, it reduces to t1 = 1, tk+1 = k + 1/4 + 1/2, proposed in Nesterov (1983); Beck and Teboulle (2009), and when b = a2/4, it t2 gives tk = (1 −
a)/2, suggested in Chambolle and Dossal (2015); Attouch and Peypouquet (2016); Attouch et al (2018); Su et al (2016).
a)Chambolle and Dossal (2015)、Attouch and Peypouquet (2016)、Attouch et al (2018)、Su et al (2016)で提案された/2。
0.83
We show that the merit function converges to zero with rate O(1/k2) for any (a,
評価関数は任意の (a, a) に対して o(1/k2) の割合で 0 に収束する。
0.60
b). In addition, we prove the iterates’ convergence to a weak Pareto solution when a > 0.
b)。 さらに、a > 0 のとき、イテレートの弱パレート解への収束が証明される。
0.50
As discussed in Section 4, this suggests that the proposed method might achieve finite-iteration manifold (active set) identification (Sun et al , 2019) without the assumption of strong convexity.
第4節で述べたように、提案手法は強い凸性の仮定なしに有限イテレーション多様体(アクティブ集合)の識別(sun et al , 2019)を達成することができる。
0.80
Furthermore, we carry out numerical experiments with various (a,
さらに,様々な (a, a) を用いて数値実験を行う。
0.75
b) and observe that some (a,
b) あるもの(a,b)を観察すること
0.67
b) yield better results than the classical factors.
b) 古典的要因よりもよい結果が得られる。
0.72
t2 k + 1/4 + 1/2), and the iterates’ convergence is not proven.
t2 k + 1/4 + 1/2) であり、イテレートの収束は証明されていない。
0.62
The outline of this paper is as follows.
本論文の概要は以下のとおりである。
0.75
We present some notations and definitions used in this paper in Section 2.1.
本稿では,本論文で用いられる記法と定義を2.1節で示す。
0.67
Section 2.2 recalls the accelerated proximal gradient method for (1) and its associated results.
第2節2は、(1)の加速近位勾配法とその関連結果を想起する。
0.58
We generalize the momentum factor and prove that it preserves an O(1/k2) convergence rate in Section 3, and we demonstrate the convergence of the iterates in Section 4.
Clearly, this is a merit function for scalar-valued optimization.
これは明らかにスカラー値最適化の利点関数である。
0.73
2.2 The accelerated proximal gradient method for multi-objective optimization
2.2 多目的最適化のための加速近位勾配法
0.70
This subsection recalls the accelerated proximal gradient method for (1) proposed in Tanabe et al (2022b) and its main results.
本節では, 田辺ら(2022b)に提案されている(1)の加速的近位勾配法とその主な成果を思い出す。
0.72
Recall that each Fi is the sum of a continuously differentiable function fi and a closed, proper, and convex function gi, and that ∇fi is Lipschitz continuous with Lipschitz constant Li > 0.
各Fi は連続微分可能関数 fi と閉、固有、凸関数 gi の和であり、かつ yfi はリプシッツ定数 Li > 0 でリプシッツ連続である。 訳抜け防止モード: 各 Fi が連続微分可能関数 fi の和であることを思い出してください。 クローズドで適切な凸関数 gi そして、ジフィはリプシッツ定数 Li > 0 のリプシッツ連続である。
0.75
Define L := max
定義 L :=max
0.54
i=1,...,m Li.
i=1,...,m リー
0.38
3
3
0.42
英語(論文から抽出)
日本語訳
スコア
Tanabe, Fukuda, and Yamashita The method solves the following subproblem at each iteration for given x ∈ dom F , y ∈ Rn, and (cid:96) ≥ L:
田辺、福田、山下 この方法は、与えられた x ∈ dom F , y ∈ Rn および (cid:96) ≥ L に対して、各反復で次の部分確率を解く。
0.59
where ϕacc (cid:96)
どこに φacc (出典:96)
0.58
(z; x, y) := max
(z; x, y) := max
0.42
i=1,...,m [(cid:104)∇fi
i=1,...,m 【cid:104】
0.49
(y), z − y(cid:105) + gi
(y), z − y(cid:105) + gi
0.46
(z) + fi (y) − Fi
(z) + fi (y)-Fi
0.35
(x)] + (cid:107)z − y(cid:107)2.
(x)] + (cid:107)z − y(cid:107)2。
0.39
(cid:96) 2 From the strong convexity, (6) has a unique optimal solution pacc
(出典:96)2 強い凸性から (6) は一意な最適解 pacc を持つ
0.73
(cid:96) (x, y), i.e.,
(出典:96) (x,y)すなわち
0.46
min z∈Rn
min (複数形 mins)
0.30
ϕacc (cid:96)
φacc (出典:96)
0.53
(z; x, y), pacc (cid:96)
(z, x, y) pacc (複数形 paccs)
0.44
(x, y) := argmin z∈Rn
(x, y) :=argmin z・Rn
0.41
ϕacc (cid:96)
φacc (出典:96)
0.53
(z; x, y).
(z; x, y)。
0.79
The following proposition characterizes weak Pareto optimality in terms of the mapping pacc
以下の命題は写像パックの観点で弱パレート最適性を特徴づける
0.75
(cid:96) (6)
(出典:96) (6)
0.55
(7) . Proposition 2 (Tanabe et al , 2022b, Proposition 4.1 (i)) Let pacc Rn is weakly Pareto optimal for (1) if and only if pacc This implies that using (cid:107)pacc We state below the accelerated proximal gradient method for (1).
(7) . 命題 2 (tanabe et al , 2022b, proposition 4.1 (i)) とすると、pacc rn が (1) に対して弱パレート最適であることは、(cid:107)pacc が (1) の加速近位勾配法以下であることと同値である。
0.54
(x, y) − y(cid:107) ∞
(x, y) − y(cid:107) ∞
0.50
(cid:96) (cid:96)
(出典:96) (出典:96)
0.67
(cid:96) (x, y) = y for some x ∈ Rn.
(出典:96) (x, y) = y は、ある x ∈ rn に対して成り立つ。
0.69
(x, y) be defined by (7).
(x, y) は (7) で定義される。
0.86
Then, y ∈ < ε for some ε > 0 is reasonable as the stopping criteria.
すると y ∈ ε > 0 の <ε > 0 は停止基準として妥当である。
0.71
Algorithm 2.1 Accelerated proximal gradient method for (1) Input: Set x0 = y1 ∈ dom F, (cid:96) ≥ L, ε > 0.
アルゴリズム 2.1 (1) 入力に対する加速度的近位勾配法: Set x0 = y1 ∈ dom F, (cid:96) ≥ L, ε > 0
0.84
Output: x∗: A weakly Pareto optimal point 1: k ← 1 2: t1 ← 1
出力: x∗: a weakly pareto optimal point 1: k が 1 2: t1 が 1 である。
0.81
(xk−1, yk) − yk(cid:13)(cid:13)
(xk−1, yk) − yk(cid:13)(cid:13)
0.41
≥ ε do 3: while(cid:13)(cid:13 )pacc tk+1 ←(cid:112)
the following assumption. This assumption is also used to analyze the proximal gradient method without acceleration (Tanabe et al , 2022a) and is not particularly strong as suggested in (Tanabe et al , 2022a, Remark 5.2).
以下の仮定。 この仮定は加速度を伴わない近位勾配法 (tanabe et al , 2022a) の解析にも用いられ、特に強いものではない(tanabe et al , 2022a, remark 5.2)。
0.66
Assumption 2.1 (Tanabe et al , 2022a, Assumption 5.1) Let X∗ and LF be defined by (3) and (4), respectively.
仮定 2.1 (Tanabe et al , 2022a, Assumption 5.1) X∗ と LF はそれぞれ (3) と (4) で定義される。
0.89
Then, for all x ∈ LF (F (x0)), there exists x∗ ∈ X∗ such that F (x∗) ≤ F (x) and
このとき、すべての x ∈ LF (F (x0)) に対して、F (x∗) ≤ F (x) となる x∗ ∈ X∗ が存在する。
0.89
(cid:13)(cid:13)z − x0(cid:13)(cid:13)2
(cid:13)(cid:13)z − x0(cid:13)(cid:13)2
0.38
< ∞. (8) R :=
< ∞. (8) R :=
0.43
sup F ∗∈F (X∗∩LF (F (x0))
すっごい f ∗ 7.f (x∗\lf (f (x0)))
0.39
inf z∈F −1({F ∗})
inf z・F−1({F ∗})
0.62
Theorem 3 (Tanabe et al , 2022b, Theorem 5.2) Under Assumption 2.1, Algorithm 2.1 gener-
定理3 (tanabe et al , 2022b, theorem 5.2) 仮定2.1,アルゴリズム2.1生成元
0.73
ates(cid:8)xk(cid:9) such that
ates(cid:8)xk(cid:9)
0.47
where R ≥ 0 is given by (8), and u0 is a merit function defined by (5).
R ≥ 0 が (8) で与えられるとき、u0 は (5) で定義されるメリット函数である。
0.86
u0(xk) ≤ 2(cid:96)R (k + 1)2
u0(xk) ≤ 2(cid:96)R (k + 1)2
0.50
for all k ≥ 1,
すべての k ≥ 1 に対して
0.83
The following corollary shows the global convergence of Algorithm 2.1.
以下はアルゴリズム 2.1 のグローバル収束を示す。
0.77
every accumulation point of(cid:8)xk(cid:9) generated by Algorithm 2.1 is weakly Pareto optimal for (1).
Corollary 4 (Tanabe et al , 2022b, Corollary 5.2) Suppose that Assumption 2.1 holds.
Corollary 4 (Tanabe et al , 2022b, Corollary 5.2) 仮定 2.1 が成り立つと仮定する。
0.74
Then, 4
そしたら 4
0.52
英語(論文から抽出)
日本語訳
スコア
A globally convergent FISTA
グローバルに収束したfista
0.57
3. Generalization of the momentum factor and convergence rate analysis This section generalizes the momentum factor {tk} used in Algorithm 2.1 and shows that the O(1/k2) convergence rate also holds in that case.
First, we describe below the algorithm in which we replace line 5 of Algorithm 2.1 by a formula using given constants a ∈ [0, 1) and b ∈ [a2/4, 1/4]:
まず、アルゴリズム2.1の行5を与えられた定数 a ∈ [0, 1) と b ∈ [a2/4, 1/4] の式で置き換えるアルゴリズムを以下に説明する。
0.87
Algorithm 3.1 Accelerated proximal gradient method with general stepsizes for (1) Input: Set x0 = y1 ∈ dom F, (cid:96) ≥ L, ε > 0, a ∈ [0, 1), b ∈ [a2/4, 1/4].
アルゴリズム 3.1 一般化した近似勾配法(1) の次数次数次数次数次法 入力: Set x0 = y1 ∈ dom F, (cid:96) ≥ L, ε > 0, a ∈ [0, 1), b ∈ [a2/4, 1/4]。
0.79
Output: x∗: A weakly Pareto optimal point 1: k ← 1 2: t1 ← 1
出力: x∗: a weakly pareto optimal point 1: k が 1 2: t1 が 1 である。
0.81
(xk−1, yk) − yk(cid:13)(cid:13)
(xk−1, yk) − yk(cid:13)(cid:13)
0.41
3: while(cid:13)(cid:13 )pacc tk+1 ←(cid:112)
3: while(cid:13)(cid:13 )pacc tk+1\(cid:112)
0.40
4: (cid:96)
4: (出典:96)
0.55
5: 6: 7: 8: 9: end while
5: 6: 7: 8: 9: 終了
0.56
(cid:96) xk ← pacc ∞ (xk−1, yk) k − atk + b + 1/2 t2 γk ← (tk − 1)/tk+1 yk+1 ← xk + γk(xk − xk−1) k ← k + 1
(出典:96) xk はpacc ∞ (xk−1, yk) k − atk + b + 1/2 t2 γk , (tk − 1)/tk+1 yk+1 , xk + γk(xk − xk−1) k , k + 1 である。
0.71
≥ ε do The sequence {tk} defined in lines 2 and 5 of Algorithm 2.1 generalizes the well-known momentum factors in single-objective accelerated methods.
For example, when a = 0 and b = 1/4, they coincide with the one in Algorithm 2.1 and the original FISTA (Nesterov, 1983; Beck and Teboulle, k)/2).
例えば、a = 0 と b = 1/4 のとき、アルゴリズム 2.1 のときと元の FISTA (Nesterov, 1983; Beck and Teboulle, k)/2) のときと一致する。
0.82
Moreover, if b = a2/4, then {tk} has the general 2009) (t1 = 1 and tk+1 = (1 + term tk = (1 − a)k/2 + (1 + a)/2, which corresponds to the one used in Chambolle and Dossal (2015); Su et al (2016); Attouch and Peypouquet (2016); Attouch et al (2018).
さらに、b = a2/4 ならば {tk} は一般 2009 である (t1 = 1 で tk+1 = (1 + term tk = (1 − a)k/2 + (1 + a)/2 であり、これはChambolle and Dossal (2015); Su et al (2016); Attouch and Peypouquet (2016); Attouch et al (2018) で使われるものに対応する。
0.90
This means that our generalization allows a finer tuning of the algorithm by varying a and b.
これは、一般化によって a と b の変化によるアルゴリズムの微調整が可能になることを意味する。
0.60
Theorem 5 Let (cid:8)xk(cid:9) be a sequence generated by Algorithm 3.1 and recall that u0 is given by (5).
Tanabe, Fukuda, and Yamashita Adding up the above inequality from p = 1 to p = k, the fact that t1 = 1 and ρ0(z) =(cid:13)(cid:13)x1 − z(cid:13)(cid:13)2
田辺、福田、山下 上記の不等式を p = 1 から p = k に加えると、t1 = 1 と ρ0(z) =(cid:13)(cid:13)x1 − z(cid:13)(cid:13)2 となる。
We now show that the coefficients of the four terms on the right-hand side can be bounded from below by the polynomials given in (18).
現在、右辺の4項の係数は、18) で与えられる多項式によって下から有界であることが示されている。
0.63
First, by using the relation
まずその関係を利用して
0.80
(cid:20) k + 1
(cid:20) k + 1
0.41
− b 1 1 − a
-b 1 1 − a
0.39
(cid:18) 1 k+1 − atk+1 + t2
(出典:18)1 k+1 − atk+1 + t2
0.53
(cid:20)(cid:18) 1 − a
(cid:20)(cid:18) 1 − a
0.42
tk+1 ≥ 1 − a 2 (cid:19) (cid:21) obtained from Lemma 6 (i) and a ∈ [0, 1), we have (cid:19)(cid:18) 1 − a (cid:18) 1 (cid:21) (cid:19) (cid:19)(cid:18) 1 − a (cid:19) p − tp + a(tp − 1)
tk+1 ≥ 1 − a 2 (cid:19) (cid:21) (cid:19) (cid:19) and a ∈ [0, 1), we have (cid:19)(cid:18) 1 − a (cid:18) 1 (cid:21) (cid:19) (cid:19)(cid:18) 1 − a (cid:19) p − tp + a(tp − 1) 訳抜け防止モード: tk+1 ≥ 1 − a 2 ( cid:19 ) ( cid:21 ) は補題 6 ( i ) から得られる。 a ∈ [ 0, 1 ) とすると、 ( cid:19)(cid:18 ) 1 − a ( cid:18 ) 1 ( cid:21 ) ( cid:19 ) ( cid:19)(cid:18 ) 1 − a ( cid:19 ) p − tp である。 + a(tp − 1 )
Note that the second one generalize (Chambolle and Dossal, 2015, Corollary 3.2) for single-objective problems.
2つ目は、単目的問題に対する一般化(Chambolle and Dossal, 2015)である。
0.56
4. Convergence of the iterates
4. iteratesの収束
0.32
While the last section shows that Algorithm 3.1 has an O(1/k2) convergence rate like Algorithm 2.1, this section proves the following theorem, which is more strict than Theorem 4 related to Algorithm 2.1:
Theorem 12 Let (cid:8)xk(cid:9) be generated by Algorithm 3.1 with a > 0.
定理12: (cid:8)xk(cid:9) を > 0 のアルゴリズム 3.1 で生成する。
0.78
Then, under Assumption 2.1, (i) (cid:8)xk(cid:9) is bounded, and it has an accumulation point;
では 仮定2.1で (i) (cid:8)xk(cid:9) は有界であり、集積点を有する。
0.73
(ii) (cid:8)xk(cid:9) converges to a weak Pareto optimum for (1).
(ii) (cid:8)xk(cid:9)は(1)に最適な弱いパレートに収束する。
0.75
the following two properties hold: The latter claim is also significant in application.
以下の2つの特性は 後者の主張も応用において重要である。
0.72
For example, finite-time manifold (active set) identification, which detects the low-dimensional manifold where the optimal solution belongs, essentially requires only the convergence of the generated sequence to a unique point rather than the strong convexity of the objective functions (Sun et al , 2019).
例えば、最適解が属する低次元多様体を検出する有限時間多様体(能動集合)の同定は、本質的には対象函数の強い凸性ではなく、生成した列の一意点への収束のみを必要とする(Sun et al , 2019)。
0.74
result, obvious from Assumption 2.1 and Theorem 5 (i).
結果は仮定 2.1 と定理 5 (i) から明らかである。
0.73
Again, we will prove Theorem 12 after showing some lemmas.
繰り返しますが、いくつかの補題を見せた後、Theorem 12を証明します。
0.55
First, we mention the following
まず 次のようなことを述べます
0.67
Lemma 13 Let (cid:8)xk(cid:9) be generated by Algorithm 3.1.
Lemma 13 (cid:8)xk(cid:9) をアルゴリズム 3.1 で生成する。
0.79
Then, for any k ≥ 0, there exists z ∈ X∗ ∩
すると、任意の k ≥ 0 に対して、z ∈ x∗ が成立する。
0.72
LF (F (x0)) (see (3) and (4) for the definitions of X∗ and LF ) such that
LF (F (x0)) (X∗ と LF の定義について (3) と (4) を参照)
0.86
σk(z) ≥ 0 and (cid:13)(cid:13)z − x0(cid:13)(cid:13)2 ≤ R,
Taking the square root of both sides and using (22), we get
両側の正方根を取り出して (22) を使って
0.55
where the second equality follows from the definition (22) of ω1.
2番目の等式は ω1 の定義 (22) から従う。
0.73
Considering the definition (23) of νk, we obtain
νk の定義 (23) を考えると、我々は得られる。
0.72
Applying the reverse triangle inequality(cid:13)(c id:13)xk − x0(cid:13)(cid:13)−(cid:13)(cid:13)x0 − z(cid:13)(cid:13) ≤(cid:13)(cid:13)xk − z(cid:13)(cid:13) to the left-hand side leads
Before proving Theorem 12 (ii), we show the following lemma.
Theorem 12 (ii) を証明する前に、以下の補題を示す。
0.79
where the second inequality comes from the assumption on z.
2番目の不等式は z の仮定によるものです
0.61
Moreover, since a > 0, the right-hand
さらに、a > 0 なので、右辺は
0.74
of σkj . Therefore, we can regard ¯z to satisfy the statement of Theorem 13 at k = ∞, and thus the inequalities of Theorem 15 hold for any r ≥ 1 and ¯z.
σkj である。 したがって、イズを k = ∞ における定理 13 のステートメントを満たすことができるので、定理 15 の不等式は任意の r ≥ 1 とイズに対して成り立つ。
0.67
This means {νk(¯z)} is non-increasing and
つまり {νk( sz)} は非増加であり、
0.71
side is bounded from above according to Theorem 10.
Theorem 10 によれば、この辺は上から有界である。
0.61
This implies that(cid:8)xk(cid:9) is bounded, and so it Lemma 16 Let (cid:8)xk(cid:9) be generated by Algorithm 3.1 with a > 0 and suppose that Assumption 2.1 holds.
Proof [Theorem 12 (ii)] Suppose that Theorem 16, we see that
証明[理論12(ii)] その定理16を仮定すると
0.57
Finally, we finish the proof of the main theorem.
最後に、主定理の証明を終了する。
0.61
converges to ¯z1 and ¯z2, respectively.
それぞれz1とz2に収束する。
0.59
From = lim j→∞
来歴 = lim j→∞
0.45
lim j→∞ (cid:110)
lim j→∞ (第110回)
0.48
= 0, xk1 j
= 0, xk1 j
0.54
and xk2 j .
そして xk2 j .
0.49
shows that x∗ is weakly Pareto optimal for (1).
x∗ は (1) に対して弱パレート最適である。
0.73
5. Numerical experiments This section compares the performance between Algorithm 3.1 with various a and b and Algorithm 2.1 (a = 0, b = 1/4) through numerical experiments.
5. 数値実験 本稿では,アルゴリズム3.1とアルゴリズム2.1(a = 0, b = 1/4)の性能を数値実験により比較する。
0.81
We run all experiments in Python 3.9.9
すべての実験をPython 3.9.9で実行します
0.57
17
17
0.42
英語(論文から抽出)
日本語訳
スコア
Tanabe, Fukuda, and Yamashita on a machine with 2.3 GHz Intel Core i7 CPU and 32 GB memory.
5.1 Artificial test problems (bi-objective and tri-objective)
5.1 人工テスト問題(bi-objectiveとtri-objective)
0.65
First, we solve the multi-objective test problems in the form (1) used in Tanabe et al (2022b), modifications from Jin et al (2001); Fliege et al (2009), whose objective functions are defined by
まず、田辺ら(2022b)、Jin et al(2001)、Fliege et al(2009)といった目的関数が定義されている形式の多目的テスト問題を解く。 訳抜け防止モード: まず, 田辺ら (2022b) で用いられる (1 ) 形式の多目的テスト問題を解く。 jin et al (2001 ) ; fliege et al (2009 ) からの修正 目的関数は
We choose 1000 initial points, commonly for all pairs (a, b), and randomly with a uniform distribution between c and c, where c = (−2, . . . ,−2)(cid:62) and c = (4, . . . , 4)(cid:62) for (JOS1) and (JOS1-L1), c = (−2, . . . ,−2)(cid:62) and c = (2, . . . , 2)(cid:62) for (FDS), and c = (0, . . . , 0)(cid:62) and c = (2, . . . , 2)(cid:62) for (FDS-CON).
Moreover, we use backtracking for updating (cid:96), with 1 as the initial value of (cid:96) and 2 as the constant multiplied into (cid:96) at each iteration (cf.
Furthermore, at each iteration, we transform the subproblem (6) into their dual as suggested in Tanabe et al (2022b) and solve them with the trust-region interior point method (Byrd et al , 1999) using the scientific library SciPy.
さらに, 各イテレーションにおいて, サブプロブレム (6) を田辺ら (2022b) の 2 つの双対に変換し, 科学的ライブラリ SciPy を用いて信頼領域内点法 (Byrd et al , 1999) で解いた。
0.76
Figure 1 and Table 1 present the experimental results.
図1と表1は実験結果を示します。
0.90
Figure 1 plots the solutions only for the cases (a, b) = (0, 1/4), (3/4, 1/4), but other combinations also yield similar plots, including a wide range of Pareto solutions.
図1は (a, b) = (0, 1/4), (3/4, 1/4) の場合にのみ解をプロットするが、他の組み合わせもパレート解を含む同様のプロットを生成する。
0.73
Table 1 shows that the new momentum factors are fast enough to compete with the existing ones ((a, b) = (0, 1/4) or b = a2/4) and better than them in some cases.
表1は、新しい運動量因子が既存の因子 ((a, b) = (0, 1/4) や b = a2/4) と競合するのに十分早く、場合によってはそれらより優れていることを示している。
0.66
5.2 Image deblurring (single-objective)
5.2画像デブラリング(single-objective)
0.67
Since our proposed momentum factor is also new in the single-objective context, we also tackle deblurring the cameraman test image via a single-objective (cid:96)2-(cid:96)1 minimization, inspired by Beck and Teboulle (2009).
In detail, as shown in Figure 2, to a 256 × 256 cameraman test image with each pixel scaled to [0, 1], we generate an observed image by applying a Gaussian blur of size 9 × 9
Figure 1: Pareto solutions obtained with some (a, b)
図1: (a, b) で得られるパレート溶液
0.65
and standard deviation 4 and adding a zero-mean white Gaussian noise with standard deviation 10−3.
そして、標準偏差4と標準偏差10−3のゼロ平均白色ガウスノイズを加える。
0.79
(a) Original (b) Blurred and noisy
(a)オリジナル (b)ぼやけた、うるさい
0.71
Figure 2: Deblurring of the cameraman
図2:カメラマンの失敗
0.54
Letting θ, B, and W be the observed image, the blur matrix, and the inverse of the Haar wavelet
θ, B, W を観測画像、ぼやけた行列およびハールウェーブレットの逆元とする 訳抜け防止モード: θ, B, W を置く 観察された画像、ぼやけた行列、そしてハールウェーブレットの逆である
0.75
transform, respectively, consider the single-objective problem (1) with m = 1 and
変換は、それぞれ m = 1 と 1 の単目的問題 (1) を考える。
0.71
f1(x) := (cid:107)BW x − θ(cid:107)2
f1(x) := (cid:107)BW x − θ(cid:107)2
0.46
and g1(x) = λ(cid:107)x(cid:107)1 ,
そして g1(x) = λ(cid:107)x(cid:107)1 である。
0.77
(CAM-DEBLUR) where λ := 2 × 10−5 is a regularization parameter.
(CAM-DEBLUR) ここで λ := 2 × 10−5 は正規化パラメータである。
0.74
Unlike in the previous subsection, we can compute ∇f ’s Lipschitz constant by calculating (BW )(cid:62)(BW )’s eigenvalues using the two-dimensional cosine transform (Hansen et al , 2006), so we use it constantly as (cid:96).
前節とは異なり、二次元コサイン変換(hansen et al , 2006)を用いて (bw )(cid:62)(bw ) の固有値を計算することで、f のリプシッツ定数を計算できるので、常に (cid:96) として使うことができる。 訳抜け防止モード: 前節とは異なり、我々は計算できる F のリプシッツ定数 BW ) ( cid:62)(BW ) の固有値を2次元コサイン変換(Hansen et al, 2006)を用いて計算することで、 常に (cid:96 ) として使用しています
0.81
Moreover, we use the observed image’s Wavelet transform as the initial point.
Figure 3 shows the reconstructed image from the obtained solution.
図3は、得られた溶液から再構成された画像を示す。
0.62
Images produced by all hyperparameters are similar, so we present only (a, b) = (0, 1/4) and (1/2, 1/4).
すべてのハイパーパラメータが生成する画像は似ているので、 (a, b) = (0, 1/4) と (1/2, 1/4) しか存在しない。
0.68
Moreover, we summarize the numerical performance in Table 2 and Figure 4.
さらに,表2と図4の数値計算結果を要約する。
0.69
Like the last subsection, this example also suggests that our new momentum factors may occasionally improve the algorithm’s performance even for single-objective problems.
6. Conclusion We have generalized the momentum factor of the multi-objective accelerated proximal gradient algorithm (Tanabe et al , 2022b) in a form that is even new in the single-objective context and includes the known FISTA momentum factors (Beck and Teboulle, 2009; Chambolle and Dossal, 2015).
結論 我々は,多目的加速近位勾配アルゴリズム(Tanabe et al , 2022b)の運動量係数を,単目的文脈においてさらに新しい形で一般化し,既知のFISTA運動量因子を含む(Beck and Teboulle, 2009; Chambolle and Dossal, 2015)。
0.52
Furthermore, with the proposed momentum factor, we proved under reasonable assumptions that the algorithm has an O(1/k2) convergence rate and that the iterates converge to Pareto solutions.
Moreover, the numerical results reinforced these theoretical properties and suggested the potential for our new momentum factor to improve the performance.
さらに, この理論特性を数値的に補強し, 性能向上のための新たな運動量係数の可能性を示唆した。
0.76
As we mentioned in Section 4, our proposed method has the potential to achieve finite-time manifold (active set) identification (Sun et al , 2019) without the assumption of the strong convexity (or its generalizations such as PL conditions or error bounds (Karimi et al , 2016)).
第4節で述べたように、提案手法は、強い凸性(あるいはpl条件や誤差境界(karimi et al , 2016)のような一般化を前提にせずに、有限時間多様体(アクティブ集合)の識別(sun et al , 2019)を実現する可能性を秘めている。
0.72
Moreover, we took a single update rule of tk for all iterations in this work, but the adaptive change of the strategy in each iteration is conceivable.
It might also be interesting to estimate the Lipschitz constant simultaneously with that change, like in Scheinberg et al (2014).
また、Schinberg et al (2014)のように、この変化と同時にリプシッツ定数を見積もることも興味深いかもしれない。
0.64
In addition, an extension to the inexact scheme like Villa et al (2013) would be significant.
さらに、Villa et al (2013)のような不正確なスキームの拡張も重要である。
0.67
Those are issues to be addressed in the future.
これらは将来的に対処すべき問題です。
0.74
Acknowledgements This work was supported by the Grant-in-Aid for Scientific Research (C) (21K11769 and 19K11840) and Grant-in-Aid for JSPS Fellows (20J21961) from the Japan Society for the Promotion of Science.
覚書 この研究は、日本科学振興協会のGrant-in-Aid(21K1176 9と19K11840)とGrant-in-Aid for JSPS Fellows(20J21961)によって支援された。
0.60
References H. Attouch and J. Peypouquet.
参考文献 H. AttouchとJ. Peypouquet。
0.54
The rate of convergence of Nesterov’s accelerated forward-backward method is actually faster than 1/k2.
ネステロフの加速前進法の収束速度は実際1/k2よりも速い。
0.67
SIAM Journal on Optimization, 26(3):1824–1834, sep 2016.
siam journal on optimization, 26(3):1824–1834, sep 2016を参照。
Dominating sets for convex functions with some applications.
いくつかのアプリケーションで凸関数のセットを支配。
0.66
Journal of Optimization Theory and Applications, 96(2):281–295, feb 1998.
Journal of Optimization Theory and Applications, 96(2):281–295, feb 1998
0.46
ISSN 0022-3239.
ISSN 0022-3239。
0.69
doi: 10.1023/A:1022614029 984.
10.1023/A:1022614029 984
0.29
URL https://doi.org/10.1 023/A:1022614029984.
URL https://doi.org/10.1 023/A:1022614029984
0.20
A. Chambolle and C. Dossal.
A. ChambolleとC. Dossal。
0.87
On the convergence of the iterates of the “Fast Iterative Shrinkage/Thresholdi ng Algorithm”.
高速反復的縮小/thresholdingアルゴリズム」のイテレートの収束について
0.64
Journal of Optimization Theory and Applications, 166(3):968–982, may 2015.
journal of optimization theory and applications, 166(3):968–982, may 2015年5月。
0.79
ISSN 1573-2878.
ISSN 1573-2878。
0.37
doi: 10.1007/S10957-015-0 746-4.
10.1007/S10957-015-0 746-4。
0.36
URL https://doi.org/10.1 007/ s10957-015-0746-4.
URL https://doi.org/10.1 007/ s10957-015-0746-4
0.18
J. A. D´esid´eri. Multiple-gradient descent algorithm (MGDA) for multiobjective optimization.
J.A.D.。 多目的最適化のための多段階降下アルゴリズム(mgda)
0.69
ISSN 1631-073X.
ISSN 1631-073X。
0.30
doi: 10.1016/
土居10.1016/
0.40
Comptes Rendus Mathematique, 350(5-6):313–318, mar 2012.
350(5-6):313-318、2012年3月。
0.48
J.CRMA.2012.03.014.
J.CRMA.2012.03.014
0.17
URL https://doi.org/10.1 016/J.CRMA.2012.03.0 14.
URL https://doi.org/10.1 016/J.CRMA.2012.03.0 14
0.15
J. -D. Dong, A.
J。 -D。 ドン、A。
0.60
-C. Cheng, D.
-C。 チェン d.
0.41
-C. Juan, W. Wei, and M. Sun.
-C。 フアン、w・ウェイ、m・サン
0.42
DPP-Net: Device-aware progressive search for Pareto-optimal neural architectures.
DPP-Net:Pareto-Optim al Neural Architectureのデバイス対応プログレッシブ検索。
0.64
In V. Ferrari, H. Martial, C. Sminchisescu, and Y. Weiss, editors, Computer Vision – ECCV 2018, pages 540–555.
V. Ferrari, H. Martial, C. Sminchisescu, Y. Weiss, editors, Computer Vision – ECCV 2018, pages 540–555。 訳抜け防止モード: V. Ferrari, H. Martial, C. Sminchisescu, Y. Weiss 編集者、コンピュータビジョン、ECCV 2018、ページ540-555。
0.82
Springer Cham, Munich, first ISBN 9783030012519.
ミュンヘンのスプリンガー・チャム、最初のisbn 9783030012519。
0.63
doi: 10.1007/978-3-030-01 252-6 32.
doi: 10.1007/978-3-030-01 252-6 32。
0.19
URL https://doi.
URL https://doi.com
0.34
edition, 2018. org/10.1007/978-3-03 0-01252-6_32.
2018年版。 org/10.1007/978-3-03 0-01252-6_32。
0.20
T. Elsken, F. Hutter, and J. H. Metzen.
T・エルスケン、F・ハッター、J・H・メッツェン。
0.53
Efficient multi-objective neural architecture search via Lamarckian evolution.
lamarckian evolutionによる効率的な多目的ニューラルネットワーク探索。
0.62
In 7th International Conference on Learning Representations, 2019.
第7回「学習表現に関する国際会議」開催。
0.66
URL https://openreview.n et/forum?
URL https://openreview.n et/forum?
0.29
id=ByME42AqK7.
id=ByME42AqK7。
0.21
H. Eschenauer, J. Koski, and A. Osyczka.
H. Eschenauer、J. Koski、A. Osyczka。
0.44
Multicriteria Design Optimization.
マルチ基準設計最適化
0.82
Springer Berlin Heidelberg, Berlin, Heidelberg, 1990.
ベルリン・ハイデルベルク、ベルリン、ハイデルベルク、1990年。
0.69
ISBN 978-3-642-48699-9.
ISBN 978-3-642-48699-9。
0.19
doi: 10.1007/978-3-642-48 697-5.
doi: 10.1007/978-3-642-48 697-5。
0.17
URL https://doi.org/10.1 007/978-3-642-48697- 5.
URL https://doi.org/10.1 007/978-3-642-48697- 5
0.15
23
23
0.42
英語(論文から抽出)
日本語訳
スコア
Tanabe, Fukuda, and Yamashita J. Fliege and B. F. Svaiter.
田辺、福田、山下 j. fliegeとb. f. svaiter。
0.52
Steepest descent methods for multicriteria optimization.
多基準最適化のための静的降下法
0.64
Mathdoi:
マトドイ(Mathdoi)
0.36
ematical Methods of Operations Research, 51(3):479–494, aug 2000.
ematical methods of operations research、51(3):479–494、2000年8月。
0.72
10.1007/s00186000004 3.
10.1007/s00186000004 3。
0.21
URL https://doi.org/10.1 007/s001860000043.
URL https://doi.org/10.1 007/s001860000043
0.22
ISSN 1432-2994.
ISSN 1432-2994。
0.74
J. Fliege, L. M. Gra˜na Drummond, and B. F. Svaiter.
J・フリージ、L・M・グラ・シュナ・ドラモンド、B・F・スベイター。
0.50
Newton’s method for multiobjective opISSN 10526234.
多目的OpISSN 10526234のニュートン法。
0.55
doi: timization. SIAM Journal on Optimization, 20(2):602–626, jan 2009.
Doi: 刺激だ SIAM Journal on Optimization, 20(2):602–626, jan 2009
0.37
10.1137/08071692X.
10.1137/08071692X
0.23
URL https://doi.org/10.1 137/08071692X.
URL https://doi.org/10.1 137/08071692X
0.22
J. Fliege, A. I. F. Vaz, and L. N. Vicente.
J.Fliege、A.I.F. Vaz、L.N. Vicente。
0.38
Complexity of gradient descent for multiobjective optimization.
多目的最適化のための勾配降下の複雑性
0.66
Optimization Methods and Software, 34(5):949–959, aug 2019.
Linear convergence of gradient and proximal-gradient methods under the Polyak-(cid:32)Lojas iewicz condition.
polyak-(cid:32)lojas iewicz条件下での勾配および近位勾配法の線形収束
0.89
In P. Frasconi, N. Landwehr, G. Manco, and J. Vreeken, editors, Machine Learning and Knowledge Discovery in Databases, pages 795–811, Cham, 2016.
P. Frasconi, N. Landwehr, G. Manco, J. Vreeken, editors, Machine Learning and Knowledge Discovery in Databases, pages 795–811, Cham, 2016 訳抜け防止モード: P. Frasconi、N. Landwehr、G. Manco、J. Vreeken。 editors, Machine Learning and Knowledge Discovery in Databases, page 795–811, チャム、2016年。
In NIPS’19: Proceedings of the 33rd International Conference on Neural Information Processing Systems, pages 12060–12070, dec 2019.
NIPS’19: Proceedings of the 33rd International Conference on Neural Information Processing Systems, page 12060–12070, dec 2019。 訳抜け防止モード: NIPS'19におけるニューラル情報処理システムに関する第33回国際会議の成果 1260-12070頁、2019年12月。
0.73
doi: 10.5555/3454287.3455 367.
doi 10.5555/3454287.3455 367
0.27
URL https://dl.acm.org/d oi/10.
URL https://dl.acm.org/d oi/10。
0.22
5555/3454287.3455367 .
5555/3454287.3455367 .
0.25
L. R. Lucambio P´erez and L. F. Prudente.
L. R. Lucambio P'erezとL. F. Prudente。
0.34
Nonlinear conjugate gradient methods for vector opISSN 1052-6234.
ベクトルOpISSN 1052-6234の非線形共役勾配法
0.88
doi: timization. SIAM Journal on Optimization, 28(3):2690–2720, jan 2018.
Doi: 刺激だ SIAM Journal on Optimization, 28(3):2690–2720, jan 2018.
0.38
10.1137/17M1126588.
10.1137/17M1126588。
0.18
URL https://doi.org/10.1 137/17M1126588.
URL https://doi.org/10.1 137/17M1126588
0.20
Y. Nesterov. A method for solving the convex programming problem with convergence rate O(1/k2).
ネステロフ。 収束率O(1/k2)による凸プログラミング問題の解法
0.46
Dokl. Akad. Nauk SSSR, 269:543–547, 1983.
Dokl アカド ナウクssr, 269:543–547, 1983年。
0.37
URL http://mi.mathnet.ru /eng/dan/v269/i3/ p543.
URL http://mi.mathnet.ru /eng/dan/v269/i3/p54 3。
0.32
K. Scheinberg, D. Goldfarb, and X. Bai.
K. Scheinberg、D. Goldfarb、X. Bai。
0.90
Fast first-order methods for composite convex optimization with backtracking.
バックトラックを用いた複合凸最適化のための高速一階法
0.59
Foundations of Computational Mathematics, 14(3):389–417, jun 2014.
計算数学の基礎、14(3):389–417, jun 2014
0.80
ISSN 1615-3375.
ISSN 1615-3375。
0.71
doi: 10.1007/s10208-014-9 189-9.
doi 10.1007/s10208-014-9 189-9。
0.36
URL https://doi.org/10.1 007/ s10208-014-9189-9.
URL https://doi.org/10.1 007/ s10208-014-9189-9。
0.18
O. Sener. Multi-task learning as multi-objective optimization.
セナー。 多目的最適化としてのマルチタスク学習
0.60
In Proceedings of the 32nd International Conference on Neural Information Processing Systems, pages 525–536, Red Hook, NY, USA, 2018.
第32回神経情報処理システム国際会議の議事録 525–536, red hook, ny, usa, 2018 ページ。
0.74
Curran Associates Inc. doi: 10.5555/3326943.3326 992.