論文の概要: Optimal Transport for Machine Learners
- arxiv url: http://arxiv.org/abs/2505.06589v1
- Date: Sat, 10 May 2025 10:35:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.927724
- Title: Optimal Transport for Machine Learners
- Title(参考訳): 機械学習学習者のための最適輸送
- Authors: Gabriel Peyré,
- Abstract要約: 最適輸送は、最適化、偏微分方程式、確率を結合する基礎数学的理論である。
これらのコースノートは、Monge や Kantorovich の定式化を含む OT の基本的な数学的側面をカバーしている。
機械学習の応用には、勾配流によるニューラルネットワークのトレーニング、トランスフォーマーのトークンダイナミクス、GANと拡散モデルの構造などが含まれる。
- 参考スコア(独自算出の注目度): 23.03787751696068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimal Transport is a foundational mathematical theory that connects optimization, partial differential equations, and probability. It offers a powerful framework for comparing probability distributions and has recently become an important tool in machine learning, especially for designing and evaluating generative models. These course notes cover the fundamental mathematical aspects of OT, including the Monge and Kantorovich formulations, Brenier's theorem, the dual and dynamic formulations, the Bures metric on Gaussian distributions, and gradient flows. It also introduces numerical methods such as linear programming, semi-discrete solvers, and entropic regularization. Applications in machine learning include topics like training neural networks via gradient flows, token dynamics in transformers, and the structure of GANs and diffusion models. These notes focus primarily on mathematical content rather than deep learning techniques.
- Abstract(参考訳): 最適輸送は、最適化、偏微分方程式、確率を結合する基礎数学的理論である。
確率分布を比較するための強力なフレームワークを提供しており、最近では機械学習、特に生成モデルの設計と評価において重要なツールとなっている。
これらのコースノートは、モンゲとカントロヴィチの定式化、ブレニエの定理、双対および動的定式化、ガウス分布に関するビュール計量、勾配流など、OTの基本的な数学的側面をカバーしている。
また、線形プログラミング、半離散解法、エントロピー正規化などの数値的手法も導入している。
機械学習の応用には、勾配流によるニューラルネットワークのトレーニング、トランスフォーマーのトークンダイナミクス、GANと拡散モデルの構造などが含まれる。
これらのメモは主に深層学習技術よりも数学的な内容に焦点を当てている。
関連論文リスト
- Wrapped Gaussian on the manifold of Symmetric Positive Definite Matrices [6.7523635840772505]
円形および非平坦なデータ分布は、データ科学の様々な領域で広く使われている。
このようなデータの基盤となる幾何学を考慮に入れるための原則的なアプローチは、重要なものである。
この研究は、古典的な機械学習と統計手法をより複雑で構造化されたデータに拡張するための基礎となる。
論文 参考訳(メタデータ) (2025-02-03T16:46:46Z) - Deep Generalized Schrödinger Bridges: From Image Generation to Solving Mean-Field Games [29.570545100557215]
一般化Schr"odinger Bridges (GSBs) は、最も可能性の高い粒子の進化を分析するために用いられる数学的枠組みである。
本稿では,実践的利用の促進を目的としたアルゴリズム的視点に焦点を当てた。
論文 参考訳(メタデータ) (2024-12-28T21:31:53Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Towards Constituting Mathematical Structures for Learning to Optimize [101.80359461134087]
近年,機械学習を利用してデータから最適化アルゴリズムを自動学習する技術が注目されている。
ジェネリックL2Oアプローチは反復更新ルールをパラメータ化し、ブラックボックスネットワークとして更新方向を学ぶ。
一般的なアプローチは広く適用できるが、学習されたモデルは過度に適合し、配布外テストセットにうまく一般化できない。
本稿では, 分布外問題に対して広く適用でき, 一般化された, 数学に着想を得た構造を持つ新しいL2Oモデルを提案する。
論文 参考訳(メタデータ) (2023-05-29T19:37:28Z) - Deep Efficient Continuous Manifold Learning for Time Series Modeling [11.876985348588477]
対称正定値行列はコンピュータビジョン、信号処理、医療画像解析において研究されている。
本稿では,リーマン多様体とコレスキー空間の間の微分同相写像を利用する枠組みを提案する。
時系列データの動的モデリングのために,多様体常微分方程式とゲートリカレントニューラルネットワークを体系的に統合した連続多様体学習法を提案する。
論文 参考訳(メタデータ) (2021-12-03T01:38:38Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Learning with Density Matrices and Random Features [44.98964870180375]
密度行列は、量子系の統計状態を記述する。
量子系の量子的不確実性と古典的不確実性の両方を表現することは強力な形式主義である。
本稿では,機械学習モデルのビルディングブロックとして密度行列をどのように利用できるかを検討する。
論文 参考訳(メタデータ) (2021-02-08T17:54:59Z) - Mat\'ern Gaussian processes on Riemannian manifolds [81.15349473870816]
ガウス過程の広く用いられるマタン類を一般化する方法を示す。
また、Mat'ern から広く用いられる2乗指数過程への一般化も拡張する。
論文 参考訳(メタデータ) (2020-06-17T21:05:42Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。