論文の概要: Optimizing Functionals on the Space of Probabilities with Input Convex
Neural Networks
- arxiv url: http://arxiv.org/abs/2106.00774v1
- Date: Tue, 1 Jun 2021 20:13:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 14:40:54.526499
- Title: Optimizing Functionals on the Space of Probabilities with Input Convex
Neural Networks
- Title(参考訳): 入力凸ニューラルネットワークを用いた確率空間上の関数の最適化
- Authors: David Alvarez-Melis, Yair Schiff, Youssef Mroueh
- Abstract要約: この問題を解決する典型的なアプローチは、動的ジョルダン・キンドルラー・オットースキームとの接続に依存する。
本稿では,最近導入された入力-ニューラルネットワーク(ICNN)を利用して凸関数の空間をパラメータ化してJKOスキームを近似する手法を提案する。
- 参考スコア(独自算出の注目度): 32.29616488152138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gradient flows are a powerful tool for optimizing functionals in general
metric spaces, including the space of probabilities endowed with the
Wasserstein metric. A typical approach to solving this optimization problem
relies on its connection to the dynamic formulation of optimal transport and
the celebrated Jordan-Kinderlehrer-Otto (JKO) scheme. However, this formulation
involves optimization over convex functions, which is challenging, especially
in high dimensions. In this work, we propose an approach that relies on the
recently introduced input-convex neural networks (ICNN) to parameterize the
space of convex functions in order to approximate the JKO scheme, as well as in
designing functionals over measures that enjoy convergence guarantees. We
derive a computationally efficient implementation of this JKO-ICNN framework
and use various experiments to demonstrate its feasibility and validity in
approximating solutions of low-dimensional partial differential equations with
known solutions. We also explore the use of our JKO-ICNN approach in high
dimensions with an experiment in controlled generation for molecular discovery.
- Abstract(参考訳): グラディエントフローは、ワッサーシュタイン計量によって与えられる確率の空間を含む一般計量空間における関数を最適化するための強力なツールである。
この最適化問題を解決する典型的なアプローチは、最適輸送の動的定式化と有名なjordan-kinderlehrer-otto (jko) スキームとの関係に依存している。
しかし、この定式化は凸関数の最適化を伴い、特に高次元では困難である。
本研究では,最近導入された入力凸ニューラルネットワーク(ICNN)を用いて,JKOスキームを近似するために凸関数の空間をパラメータ化し,収束保証を享受する尺度よりも関数を設計する手法を提案する。
我々は、このJKO-ICNNフレームワークの計算効率の良い実装を導き、その実現可能性と、既知の解を用いた低次元偏微分方程式の近似解の妥当性と妥当性を示す。
また、分子発見のための制御生成実験により、JKO-ICNNアプローチを高次元に利用することについても検討する。
関連論文リスト
- Scalable Kernel Inverse Optimization [2.799896314754615]
逆最適化は、専門家の意思決定者の未知の目的関数を過去のデータセットから学習するためのフレームワークである。
我々は IO 目的関数の仮説クラスをカーネルヒルベルト空間の再現に拡張する。
代表者定理の変種が特定の訓練損失を負うことを示し、有限次元凸最適化プログラムとして問題の再構成を可能にする。
論文 参考訳(メタデータ) (2024-10-31T14:06:43Z) - Separable Physics-informed Neural Networks for Solving the BGK Model of
the Boltzmann Equation [5.041477069153866]
本稿では,ボルツマン方程式のBGKモデルを効果的に解くために,分離可能な物理情報ニューラルネットワーク(SPINN)を用いた手法を提案する。
我々は、SPINNの正準多進分解構造とモーメント計算の線形性を活用し、二次ルール適用の計算コストを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-10T23:44:55Z) - An Adaptive Dimension Reduction Estimation Method for High-dimensional
Bayesian Optimization [6.79843988450982]
BOを高次元設定に拡張するための2段階最適化フレームワークを提案する。
私たちのアルゴリズムは、これらのステップを並列またはシーケンスで操作する柔軟性を提供します。
数値実験により,困難シナリオにおける本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-03-08T16:21:08Z) - D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory [79.50644650795012]
コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
論文 参考訳(メタデータ) (2023-03-01T10:38:10Z) - Tree ensemble kernels for Bayesian optimization with known constraints
over mixed-feature spaces [54.58348769621782]
木アンサンブルはアルゴリズムチューニングやニューラルアーキテクチャ検索といったブラックボックス最適化タスクに適している。
ブラックボックス最適化にツリーアンサンブルを使うことの2つのよく知られた課題は、探索のためのモデル不確実性を効果的に定量化し、また、 (ii) ピースワイドな定値取得関数を最適化することである。
我々のフレームワークは、連続/離散的機能に対する非拘束ブラックボックス最適化のための最先端の手法と同様に、混合変数の特徴空間と既知の入力制約を組み合わせた問題の競合する手法よりも優れている。
論文 参考訳(メタデータ) (2022-07-02T16:59:37Z) - Sliced-Wasserstein Gradient Flows [15.048733056992855]
確率分布の空間における函数の最小化は、ワッサーシュタイン勾配流によって行うことができる。
本研究は,スライス-ワッサーシュタイン距離による確率測度空間における勾配流の利用を提案する。
論文 参考訳(メタデータ) (2021-10-21T08:34:26Z) - Optimization on manifolds: A symplectic approach [127.54402681305629]
本稿では、最適化問題を解くための一般的な枠組みとして、ディラックの制約付きハミルトン系理論の散逸拡張を提案する。
我々の(加速された)アルゴリズムのクラスは単純で効率的なだけでなく、幅広い文脈にも適用できる。
論文 参考訳(メタデータ) (2021-07-23T13:43:34Z) - Data-informed Deep Optimization [3.331457049134526]
本稿では,データインフォームド・ディープ・最適化(DiDo)による高次元設計問題の解法を提案する。
我々は、ディープニューラルネットワーク(DNN)を用いて、実現可能な領域を学習し、目的関数に適合する実行可能なポイントをサンプリングする。
以上の結果から,DNN による DiDo のアプローチは柔軟で,現実的な高次元設計問題の解決に有効であることが示唆された。
論文 参考訳(メタデータ) (2021-07-17T02:53:54Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Sequential Subspace Search for Functional Bayesian Optimization
Incorporating Experimenter Intuition [63.011641517977644]
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、次の部分空間の出発点(オリジン)として用いられる最良の解である。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。
論文 参考訳(メタデータ) (2020-09-08T06:54:11Z) - Optimal Bayesian experimental design for subsurface flow problems [77.34726150561087]
本稿では,設計ユーティリティ機能のためのカオス拡張サロゲートモデル(PCE)の開発のための新しいアプローチを提案する。
この手法により,対象関数に対する適切な品質応答面の導出が可能となり,計算予算は複数の単点評価に匹敵する。
論文 参考訳(メタデータ) (2020-08-10T09:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。