論文の概要: Learn to Evolve: Self-supervised Neural JKO Operator for Wasserstein Gradient Flow
- arxiv url: http://arxiv.org/abs/2601.05583v1
- Date: Fri, 09 Jan 2026 07:12:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.883202
- Title: Learn to Evolve: Self-supervised Neural JKO Operator for Wasserstein Gradient Flow
- Title(参考訳): 進化への学び:ワッサーシュタイン勾配流のための自己教師型ニューラルネットワークJKO演算子
- Authors: Xue Feng, Li Wang, Deanna Needell, Rongjie Lai,
- Abstract要約: Jordan-Kinderlehrer-Otto (JKO) スキームは、ワッサーシュタイン勾配流を計算するための安定な変分フレームワークを提供する。
本稿では,JKOトラジェクトリの数値解を必要とすることなく,JKO解演算子を学習するための自己教師型アプローチを提案する。
- 参考スコア(独自算出の注目度): 13.407752099276323
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Jordan-Kinderlehrer-Otto (JKO) scheme provides a stable variational framework for computing Wasserstein gradient flows, but its practical use is often limited by the high computational cost of repeatedly solving the JKO subproblems. We propose a self-supervised approach for learning a JKO solution operator without requiring numerical solutions of any JKO trajectories. The learned operator maps an input density directly to the minimizer of the corresponding JKO subproblem, and can be iteratively applied to efficiently generate the gradient-flow evolution. A key challenge is that only a number of initial densities are typically available for training. To address this, we introduce a Learn-to-Evolve algorithm that jointly learns the JKO operator and its induced trajectories by alternating between trajectory generation and operator updates. As training progresses, the generated data increasingly approximates true JKO trajectories. Meanwhile, this Learn-to-Evolve strategy serves as a natural form of data augmentation, significantly enhancing the generalization ability of the learned operator. Numerical experiments demonstrate the accuracy, stability, and robustness of the proposed method across various choices of energies and initial conditions.
- Abstract(参考訳): Jordan-Kinderlehrer-Otto (JKO) スキームは、ワッサーシュタイン勾配流を計算するための安定な変分フレームワークを提供するが、その実用性は、JKOのサブプロブレムを繰り返す計算コストによって制限されることが多い。
本稿では,JKOトラジェクトリの数値解を必要とすることなく,JKO解演算子を学習するための自己教師型アプローチを提案する。
学習した演算子は、入力密度を対応するJKOサブプロブレムの最小値に直接マッピングし、反復的に適用して勾配-流の進化を効率的に生成することができる。
重要な課題は、トレーニングで一般的に利用できるのは、いくつかの初期密度のみであることだ。
そこで本稿では,JKO演算子とその誘導軌道をトラジェクトリ生成と演算子更新の交互に学習するLearning-to-Evolveアルゴリズムを提案する。
トレーニングが進むにつれて、生成されたデータは真のJKO軌道に近づきつつある。
一方、このLearning-to-Evolve戦略はデータ拡張の自然な形態として機能し、学習者の一般化能力を大幅に向上させる。
数値実験により, 提案手法の精度, 安定性およびロバスト性について, エネルギーおよび初期条件の様々な選択にまたがって検証した。
関連論文リスト
- Multi-fidelity graph-based neural networks architectures to learn Navier-Stokes solutions on non-parametrized 2D domains [0.6554302736811937]
非パラメタライズされた2次元幾何学における定常ナビエ-ストークス解の予測のためのグラフベース多要素学習フレームワークを提案する。
本手法は,Stokesモデルからの逐次近似による学習過程の導出を目的としている。
論文 参考訳(メタデータ) (2026-01-05T14:35:59Z) - Learning of Population Dynamics: Inverse Optimization Meets JKO Scheme [108.40477308738691]
個体群動態の学習は、粒子の進化を管理する基礎過程の回復を伴う。
近年の手法では、これを確率空間におけるエネルギー問題とみなし、有名なJKOスキームを効率的な時間離散化に活用している。
論文 参考訳(メタデータ) (2025-06-02T10:08:03Z) - DeepONet as a Multi-Operator Extrapolation Model: Distributed Pretraining with Physics-Informed Fine-Tuning [6.635683993472882]
マルチオペレータ学習を実現するためのファインチューニング手法を提案する。
本手法は,事前学習における各種演算子からのデータを分散学習と組み合わせ,物理インフォームド手法によりゼロショット微調整が可能となる。
論文 参考訳(メタデータ) (2024-11-11T18:58:46Z) - Variational operator learning: A unified paradigm marrying training
neural operators and solving partial differential equations [9.148052787201797]
ニューラル演算子を訓練し、変分形式でPDEを解くための統一的な枠組みを提供する新しいパラダイムを提案する。
ラベルなしのトレーニングセットと5ラベルのみのシフトセットにより、VOLは、未ラベルデータの量に関して、そのテストエラーが電力法則で減少して解演算子を学習する。
論文 参考訳(メタデータ) (2023-04-09T13:20:19Z) - CoopInit: Initializing Generative Adversarial Networks via Cooperative
Learning [50.90384817689249]
CoopInitは、協力的な学習ベースの戦略で、GANにとって良い出発点を素早く学べる。
本稿では,画像生成における提案手法の有効性を示す。
論文 参考訳(メタデータ) (2023-03-21T07:49:32Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Combinatorial Learning of Graph Edit Distance via Dynamic Embedding [108.49014907941891]
本稿では,従来の検索手法による編集経路の解釈可能性を組み合わせたハイブリッド手法を提案する。
動的プログラミングにインスパイアされたノードレベルの埋め込みは、動的再利用方式で指定され、サブ最適分岐がプルーニングされることが推奨される。
異なるグラフデータセットを用いた実験結果から,A* の探索処理は精度を犠牲にすることなく極めて容易であることが示唆された。
論文 参考訳(メタデータ) (2020-11-30T17:41:02Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。