論文の概要: Rethinking Initialization of the Sinkhorn Algorithm
- arxiv url: http://arxiv.org/abs/2206.07630v2
- Date: Wed, 5 Apr 2023 08:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 16:36:02.394132
- Title: Rethinking Initialization of the Sinkhorn Algorithm
- Title(参考訳): シンクホーンアルゴリズムの初期化再考
- Authors: James Thornton, Marco Cuturi
- Abstract要約: データ依存型初期化器は、暗黙の微分が用いられる限り、微分可能性に影響を与えない、劇的なスピードアップをもたらすことを示す。
我々の手法は、1D、ガウス、GMM設定で知られている正確なOT解や近似OT解に対して閉形式に依存している。
- 参考スコア(独自算出の注目度): 36.72281550968301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While the optimal transport (OT) problem was originally formulated as a
linear program, the addition of entropic regularization has proven beneficial
both computationally and statistically, for many applications. The Sinkhorn
fixed-point algorithm is the most popular approach to solve this regularized
problem, and, as a result, multiple attempts have been made to reduce its
runtime using, e.g., annealing in the regularization parameter, momentum or
acceleration. The premise of this work is that initialization of the Sinkhorn
algorithm has received comparatively little attention, possibly due to two
preconceptions: since the regularized OT problem is convex, it may not be worth
crafting a good initialization, since any is guaranteed to work; secondly,
because the outputs of the Sinkhorn algorithm are often unrolled in end-to-end
pipelines, a data-dependent initialization would bias Jacobian computations. We
challenge this conventional wisdom, and show that data-dependent initializers
result in dramatic speed-ups, with no effect on differentiability as long as
implicit differentiation is used. Our initializations rely on closed-forms for
exact or approximate OT solutions that are known in the 1D, Gaussian or GMM
settings. They can be used with minimal tuning, and result in consistent
speed-ups for a wide variety of OT problems.
- Abstract(参考訳): 最適輸送(ot)問題はもともと線形プログラムとして定式化されたが、エントロピー正則化の付加は多くの応用において計算学的にも統計的にも有益であることが証明されている。
シンクホーン固定点アルゴリズムは、この正規化問題を解くための最も一般的な手法であり、結果として、正規化パラメータ、運動量または加速度をアニールするなどして、ランタイムを減らすために複数の試みがなされている。
この研究の前提は、シンクホーンアルゴリズムの初期化は、おそらく2つの先入観から、比較的ほとんど注目されていないことである: 正規化OT問題は凸であるので、うまく機能することが保証されているため、良い初期化を作成する価値はないかもしれない; 第二に、シンクホーンアルゴリズムの出力がエンドツーエンドのパイプラインでしばしばアンロールされるため、データ依存の初期化はヤコビ計算に偏る。
この従来の知見に挑戦し、データ依存の初期化子は劇的なスピードアップを生じさせ、暗黙的な分化が使われる限り、微分可能性に影響を与えないことを示した。
我々の初期化は、1D, Gaussian あるいは GMM 設定で知られている正確なあるいは近似OT解に対する閉形式に依存している。
これらは最小限のチューニングで使用することができ、様々なot問題に対して一貫したスピードアップをもたらす。
関連論文リスト
- Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - SCORE: Approximating Curvature Information under Self-Concordant
Regularization [0.0]
本稿では,新たな入力を受信するたびに最小化速度を更新する自己調和正規化アルゴリズム(GGN-SCORE)を提案する。
提案アルゴリズムはヘッセン行列の2階情報構造を利用して計算オーバーヘッドを削減する。
論文 参考訳(メタデータ) (2021-12-14T13:03:04Z) - An Accelerated Variance-Reduced Conditional Gradient Sliding Algorithm
for First-order and Zeroth-order Optimization [111.24899593052851]
条件勾配アルゴリズム(Frank-Wolfeアルゴリズムとも呼ばれる)は、最近、機械学習コミュニティで人気を取り戻している。
ARCSは、ゼロ階最適化において凸問題を解く最初のゼロ階条件勾配スライディング型アルゴリズムである。
1次最適化では、ARCSの収束結果は、勾配クエリのオラクルの数で、従来のアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-09-18T07:08:11Z) - Zeroth and First Order Stochastic Frank-Wolfe Algorithms for Constrained
Optimization [13.170519806372075]
2組の制約を持つ凸最適化の問題は、半定値プログラミングの文脈で頻繁に発生する。
最初の制約セットへのプロジェクションは困難であるため、プロジェクションフリーなアルゴリズムを探索する必要がある。
提案アルゴリズムの有効性は, スパース行列推定, 半定緩和によるクラスタリング, および一様スペースカット問題の適用性について検証した。
論文 参考訳(メタデータ) (2021-07-14T08:01:30Z) - Warm-starting quantum optimization [6.832341432995627]
最適化問題の緩和解に対応する初期状態を用いて量子最適化を温める方法について論じる。
これにより、量子アルゴリズムは古典的なアルゴリズムの性能保証を継承することができる。
同じ考えを他のランダム化ラウンドスキームや最適化問題に適用するのは簡単である。
論文 参考訳(メタデータ) (2020-09-21T18:00:09Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。