論文の概要: Neural Estimation for Scaling Entropic Multimarginal Optimal Transport
- arxiv url: http://arxiv.org/abs/2506.00573v1
- Date: Sat, 31 May 2025 14:10:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.205477
- Title: Neural Estimation for Scaling Entropic Multimarginal Optimal Transport
- Title(参考訳): エントロピー型マルチマルジナル最適輸送のニューラルネットワークによる推定
- Authors: Dor Tsur, Ziv Goldfeld, Kristjan Greenewald, Haim Permuter,
- Abstract要約: ニューラルエントロピーMOT(Neural Entropic MOT)と呼ばれる,エントロピーMOTのための新しい計算フレームワークを提案する。
NEMOTでは、データセットサイズからミニバッチサイズに計算複雑性を転送するミニバッチを使用してトレーニングされたニューラルネットワークを使用している。
特に、マグニチュード・オブ・マグニチュード・スピードアップは最先端技術と比較して観察され、可能なサンプル数や限界数が顕著に増加する。
- 参考スコア(独自算出の注目度): 14.389645696715599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimarginal optimal transport (MOT) is a powerful framework for modeling interactions between multiple distributions, yet its applicability is bottlenecked by a high computational overhead. Entropic regularization provides computational speedups via the multimarginal Sinkhorn algorithm, whose time complexity, for a dataset size $n$ and $k$ marginals, generally scales as $O(n^k)$. However, this dependence on the dataset size $n$ is computationally prohibitive for many machine learning problems. In this work, we propose a new computational framework for entropic MOT, dubbed Neural Entropic MOT (NEMOT), that enjoys significantly improved scalability. NEMOT employs neural networks trained using mini-batches, which transfers the computational complexity from the dataset size to the size of the mini-batch, leading to substantial gains. We provide formal guarantees on the accuracy of NEMOT via non-asymptotic error bounds. We supplement these with numerical results that demonstrate the performance gains of NEMOT over Sinkhorn's algorithm, as well as extensions to neural computation of multimarginal entropic Gromov-Wasserstein alignment. In particular, orders-of-magnitude speedups are observed relative to the state-of-the-art, with a notable increase in the feasible number of samples and marginals. NEMOT seamlessly integrates as a module in large-scale machine learning pipelines, and can serve to expand the practical applicability of entropic MOT for tasks involving multimarginal data.
- Abstract(参考訳): マルチマージ最適輸送(MOT)は、複数の分散間の相互作用をモデル化するための強力なフレームワークであるが、その適用性は高い計算オーバーヘッドによってボトルネックとなる。
エントロピック正規化(Entropic regularization)は、データセットサイズが$n$と$k$の際の時間複雑性を$O(n^k)$とするマルチマルジナルシンクホーンアルゴリズムによる計算スピードアップを提供する。
しかし、データセットサイズへの依存$n$は、多くの機械学習問題に対して計算的に禁じられている。
本研究では,ニューラルエントロピーMOT(Neural Entropic MOT, NEMOT)と呼ばれる,エントロピーMOTのための新しい計算フレームワークを提案する。
NEMOTでは、データセットサイズからミニバッチサイズに計算複雑性を転送するミニバッチを使用してトレーニングされたニューラルネットワークを使用している。
非漸近誤差境界によるNEMOTの精度に関する正式な保証を提供する。
我々はこれらを,シンクホーンアルゴリズムによるNEMOTの性能向上を示す数値的な結果と,マルチマルジナルエントロピーGromov-Wassersteinアライメントのニューラル計算の拡張で補足する。
特に、マグニチュード・オブ・マグニチュード・スピードアップは最先端技術と比較して観察され、可能なサンプル数や限界数が顕著に増加する。
NEMOTは大規模機械学習パイプラインのモジュールとしてシームレスに統合され、マルチマージナルデータを含むタスクに対するエントロピーMOTの実践的適用性の拡大に役立つ。
関連論文リスト
- Fast and close Shannon entropy approximation [0.0]
シャノンエントロピーとその勾配の非特異な有理近似は平均絶対誤差10-3$を達成する。
FEAは50ドル程度の高速計算を可能にし、5ドルから6ドル程度の初等計算処理しか必要としない。
機械学習における特徴選択問題に対する共通ベンチマークでは,基本演算の削減,近似誤差の低減,非特異勾配の併用がモデル品質を著しく向上させることを示した。
論文 参考訳(メタデータ) (2025-05-20T11:41:26Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Progressive Entropic Optimal Transport Solvers [33.821924561619895]
本稿では,計画図と輸送地図の両方を推定できる新しいEOT解法(ProgOT)を提案する。
我々は,ProgOTが標準解法よりも高速で堅牢な代替手段であることを示す実験的な証拠を提供する。
また、最適な輸送地図を推定するためのアプローチの統計的整合性も証明する。
論文 参考訳(メタデータ) (2024-06-07T16:33:08Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Tensor Slicing and Optimization for Multicore NPUs [2.670309629218727]
本稿では,Slicing Optimization (TSO) と呼ばれるマルチコアNPUに対するコンパイラ最適化パスを提案する。
TSOは、一連のCNNモデルの実行時間を最小化する最高のテンソルスライシングを特定する。
その結果、TSOは一連のCNNモデルの実行時間を最小化する最適なテンソルスライシングを識別できることがわかった。
論文 参考訳(メタデータ) (2023-04-06T12:03:03Z) - Efficient Dataset Distillation Using Random Feature Approximation [109.07737733329019]
本稿では,ニューラルネットワークガウス過程(NNGP)カーネルのランダム特徴近似(RFA)を用いた新しいアルゴリズムを提案する。
我々のアルゴリズムは、KIP上で少なくとも100倍のスピードアップを提供し、1つのGPUで実行できる。
RFA蒸留 (RFAD) と呼ばれる本手法は, 大規模データセットの精度において, KIP や他のデータセット凝縮アルゴリズムと競合して動作する。
論文 参考訳(メタデータ) (2022-10-21T15:56:13Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。