論文の概要: Generative Adversarial Learning of Sinkhorn Algorithm Initializations
- arxiv url: http://arxiv.org/abs/2212.00133v4
- Date: Fri, 2 Feb 2024 00:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:53:15.414049
- Title: Generative Adversarial Learning of Sinkhorn Algorithm Initializations
- Title(参考訳): シンクホーンアルゴリズム初期化の生成的逆学習
- Authors: Jonathan Geuter, Vaios Laschos
- Abstract要約: 我々は、エントロピーOT双対問題を通じてアルゴリズムの初期化を学ぶためにニューラルネットワークを巧みに訓練することで、収束を著しく加速できることを示した。
我々のネットワークは,正規化輸送距離を数パーセントの誤差に近似するために,スタンドアロンのOTソルバとしても使用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Sinkhorn algorithm is the state-of-the-art to approximate solutions of
entropic optimal transport (OT) distances between discrete probability
distributions. We show that meticulously training a neural network to learn
initializations to the algorithm via the entropic OT dual problem can
significantly speed up convergence, while maintaining desirable properties of
the Sinkhorn algorithm, such as differentiability and parallelizability. We
train our predictive network in an adversarial fashion using a second,
generating network and a self-supervised bootstrapping loss. The predictive
network is universal in the sense that it is able to generalize to any pair of
distributions of fixed dimension and cost at inference, and we prove that we
can make the generating network universal in the sense that it is capable of
producing any pair of distributions during training. Furthermore, we show that
our network can even be used as a standalone OT solver to approximate
regularized transport distances to a few percent error, which makes it the
first meta neural OT solver.
- Abstract(参考訳): シンクホーンアルゴリズム(Sinkhorn algorithm)は、離散確率分布間のエントロピー最適輸送(OT)距離の解法である。
ニューラルネットワークを用いてエントロピーOT双対問題を用いてアルゴリズムの初期化を正確に学習することにより、Sinkhornアルゴリズムの微分可能性や並列化性といった望ましい特性を維持しつつ、収束を著しく高速化できることを示す。
我々は,第2のネットワークと自己教師型ブートストラップ損失を用いて,予測ネットワークを逆さまに訓練する。
予測ネットワークは,固定次元と推定コストの任意の対の分布に一般化できるという意味で普遍的であり,訓練中に任意の対の分布を生成できるという意味では,生成ネットワークを普遍化することができることを証明している。
さらに,我々のネットワークは,通常の輸送距離を数パーセントの誤差に近似するために,スタンドアロンのOTソルバとして使用することもできる。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Probabilistic Verification of ReLU Neural Networks via Characteristic
Functions [11.489187712465325]
我々は、周波数領域における確率理論のアイデアを用いて、ReLUニューラルネットワークの確率論的検証保証を提供する。
我々は、(深い)フィードフォワードニューラルネットワークを有限地平線上の離散力学系として解釈する。
出力集合の累積分布関数を求め,ネットワークが期待通りに動作しているかどうかを確認する。
論文 参考訳(メタデータ) (2022-12-03T05:53:57Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Randomly Initialized One-Layer Neural Networks Make Data Linearly
Separable [1.2277343096128712]
十分な幅が与えられると、ランダムに1層ニューラルネットワークは2つの集合を2つの線形分離可能な集合に変換することができる。
本論文は, 十分な幅が与えられると, ランダムに一層ニューラルネットワークが2つの集合を2つの線形分離可能な集合に変換できることを示す。
論文 参考訳(メタデータ) (2022-05-24T01:38:43Z) - PAC-Bayesian Learning of Aggregated Binary Activated Neural Networks
with Probabilities over Representations [2.047424180164312]
本研究では,確率論的ニューラルネットワークの予測器としての期待値について検討し,実数値重みによる正規分布を持つ二元活性化ニューラルネットワークの集約に着目した。
我々は、動的プログラミングアプローチのおかげで、深いが狭いニューラルネットワークに対して、正確な計算が引き続き実行可能であることを示す。
論文 参考訳(メタデータ) (2021-10-28T14:11:07Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Training Generative Adversarial Networks via stochastic Nash games [2.995087247817663]
GAN(Generative Adversarial Network)は、ジェネレータと識別器という2つの対角ニューラルネットワークを持つ生成モデルのクラスである。
データの数が増加すると、正確な解に収束することを示す。
また, サンプル数が少ない場合, SRFBアルゴリズムの平均変種を解の近傍に収束させることも示した。
論文 参考訳(メタデータ) (2020-10-17T09:07:40Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。