論文の概要: Rethinking Initialization of the Sinkhorn Algorithm
- arxiv url: http://arxiv.org/abs/2206.07630v1
- Date: Wed, 15 Jun 2022 16:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 19:38:39.674997
- Title: Rethinking Initialization of the Sinkhorn Algorithm
- Title(参考訳): シンクホーンアルゴリズムの初期化再考
- Authors: James Thornton, Marco Cuturi
- Abstract要約: シンクホーンアルゴリズムのテクスチニシャル化は, ほとんど, あるいは全くチューニングすることなく, 様々なOT問題に対して一貫した高速化を実現することができることを示す。
- 参考スコア(独自算出の注目度): 36.72281550968301
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing an optimal transport (OT) coupling between distributions plays an
increasingly important role in machine learning. While OT problems can be
solved as linear programs, adding an entropic smoothing term is known to result
in solvers that are faster and more robust to outliers, differentiable and
easier to parallelize. The Sinkhorn fixed point algorithm is the cornerstone of
these approaches, and, as a result, multiple attempts have been made to shorten
its runtime using, for instance, annealing, momentum or acceleration. The
premise of this paper is that \textit{initialization} of the Sinkhorn algorithm
has received comparatively little attention, possibly due to two
preconceptions: as the regularized OT problem is convex, it may not be worth
crafting a tailored initialization as \textit{any} is guaranteed to work;
secondly, because the Sinkhorn algorithm is often differentiated in end-to-end
pipelines, data-dependent initializations could potentially bias gradient
estimates obtained by unrolling iterations. We challenge this conventional
wisdom and show that carefully chosen initializations can result in dramatic
speed-ups, and will not bias gradients which are computed with implicit
differentiation. We detail how initializations can be recovered from
closed-form or approximate OT solutions, using known results in the 1D or
Gaussian settings. We show empirically that these initializations can be used
off-the-shelf, with little to no tuning, and result in consistent speed-ups for
a variety of OT problems.
- Abstract(参考訳): 分散間の最適輸送(OT)結合の計算は、機械学習においてますます重要な役割を果たす。
ot問題は線形プログラムとして解くことができるが、エントロピーな平滑化項を加えることで、より高速でより強固な解法が得られ、微分可能で並列化が容易になる。
シンクホーン固定点アルゴリズムはこれらのアプローチの基盤であり、結果として、アニール、運動量、加速度などを用いて実行時間を短縮する複数の試みがなされている。
本論文の前提は, Sinkhorn アルゴリズムの \textit{initialization} が比較的あまり注目されていないことであり, 正規化 OT 問題は凸であり, \textit{any} の動作が保証されるため, 調整した初期化を作成する価値はない。
我々は、この従来の知恵に挑戦し、慎重に選択された初期化が劇的なスピードアップをもたらすことを示し、暗黙の微分によって計算されるバイアス勾配を示さない。
我々は, 1d または gaussian 設定における既知の結果を用いて,閉形式あるいは近似 ot 解から初期化を回復する方法を詳述する。
これらの初期化は、ほとんど、あるいは全くチューニングすることなく、棚外で使用することができ、様々なOT問題に対して一貫したスピードアップをもたらすことを実証的に示す。
関連論文リスト
- Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - SCORE: Approximating Curvature Information under Self-Concordant
Regularization [0.0]
本稿では,新たな入力を受信するたびに最小化速度を更新する自己調和正規化アルゴリズム(GGN-SCORE)を提案する。
提案アルゴリズムはヘッセン行列の2階情報構造を利用して計算オーバーヘッドを削減する。
論文 参考訳(メタデータ) (2021-12-14T13:03:04Z) - An Accelerated Variance-Reduced Conditional Gradient Sliding Algorithm
for First-order and Zeroth-order Optimization [111.24899593052851]
条件勾配アルゴリズム(Frank-Wolfeアルゴリズムとも呼ばれる)は、最近、機械学習コミュニティで人気を取り戻している。
ARCSは、ゼロ階最適化において凸問題を解く最初のゼロ階条件勾配スライディング型アルゴリズムである。
1次最適化では、ARCSの収束結果は、勾配クエリのオラクルの数で、従来のアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-09-18T07:08:11Z) - Zeroth and First Order Stochastic Frank-Wolfe Algorithms for Constrained
Optimization [13.170519806372075]
2組の制約を持つ凸最適化の問題は、半定値プログラミングの文脈で頻繁に発生する。
最初の制約セットへのプロジェクションは困難であるため、プロジェクションフリーなアルゴリズムを探索する必要がある。
提案アルゴリズムの有効性は, スパース行列推定, 半定緩和によるクラスタリング, および一様スペースカット問題の適用性について検証した。
論文 参考訳(メタデータ) (2021-07-14T08:01:30Z) - Warm-starting quantum optimization [6.832341432995627]
最適化問題の緩和解に対応する初期状態を用いて量子最適化を温める方法について論じる。
これにより、量子アルゴリズムは古典的なアルゴリズムの性能保証を継承することができる。
同じ考えを他のランダム化ラウンドスキームや最適化問題に適用するのは簡単である。
論文 参考訳(メタデータ) (2020-09-21T18:00:09Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Accelerated Message Passing for Entropy-Regularized MAP Inference [89.15658822319928]
離散値のランダムフィールドにおけるMAP推論の最大化は、機械学習の基本的な問題である。
この問題の難しさから、特殊メッセージパッシングアルゴリズムの導出には線形プログラミング(LP)緩和が一般的である。
古典的加速勾配の根底にある手法を活用することにより,これらのアルゴリズムを高速化するランダム化手法を提案する。
論文 参考訳(メタデータ) (2020-07-01T18:43:32Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。