論文の概要: Learning from Samples: Inverse Problems over measures via Sharpened Fenchel-Young Losses
- arxiv url: http://arxiv.org/abs/2505.07124v1
- Date: Sun, 11 May 2025 21:26:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.220927
- Title: Learning from Samples: Inverse Problems over measures via Sharpened Fenchel-Young Losses
- Title(参考訳): サンプルから学ぶ: シャープ化フェンシェル・ヤング・ロースによる対策の逆問題
- Authors: Francisco Andrade, Gabriel Peyré, Clarice Poon,
- Abstract要約: 最適確率分布のサンプルからパラメータを推定することは、社会経済モデルから生物学的システム分析まで幅広い応用において不可欠である。
我々のアプローチは、フェンシェル・ヤングの損失と呼ばれる新しい損失関数のクラスを最小化することに依存している。
有限個のサンプルしか得られない場合のこの推定法の安定性について検討する。
- 参考スコア(独自算出の注目度): 20.246040671823557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Estimating parameters from samples of an optimal probability distribution is essential in applications ranging from socio-economic modeling to biological system analysis. In these settings, the probability distribution arises as the solution to an optimization problem that captures either static interactions among agents or the dynamic evolution of a system over time. Our approach relies on minimizing a new class of loss functions, called sharpened Fenchel-Young losses, which measure the sub-optimality gap of the optimization problem over the space of measures. We study the stability of this estimation method when only a finite number of sample is available. The parameters to be estimated typically correspond to a cost function in static problems and to a potential function in dynamic problems. To analyze stability, we introduce a general methodology that leverages the strong convexity of the loss function together with the sample complexity of the forward optimization problem. Our analysis emphasizes two specific settings in the context of optimal transport, where our method provides explicit stability guarantees: The first is inverse unbalanced optimal transport (iUOT) with entropic regularization, where the parameters to estimate are cost functions that govern transport computations; this method has applications such as link prediction in machine learning. The second is inverse gradient flow (iJKO), where the objective is to recover a potential function that drives the evolution of a probability distribution via the Jordan-Kinderlehrer-Otto (JKO) time-discretization scheme; this is particularly relevant for understanding cell population dynamics in single-cell genomics. Finally, we validate our approach through numerical experiments on Gaussian distributions, where closed-form solutions are available, to demonstrate the practical performance of our methods
- Abstract(参考訳): 最適確率分布のサンプルからパラメータを推定することは、社会経済モデルから生物学的システム分析まで幅広い応用において不可欠である。
これらの設定では、確率分布はエージェント間の静的相互作用や時間の経過とともにシステムの動的進化を捉える最適化問題の解として生じる。
我々のアプローチは、測度空間上の最適化問題の最適部分ギャップを測定する、シャープ化フェンシェル・ヤング損失と呼ばれる新しい損失関数のクラスを最小化することに依存している。
有限個のサンプルしか得られない場合のこの推定法の安定性について検討する。
推定されるパラメータは典型的には静的問題におけるコスト関数と動的問題における潜在的な関数に対応する。
安定性を解析するために,損失関数の強い凸性とフォワード最適化問題のサンプル複雑性を利用する一般的な手法を提案する。
分析では、最適輸送の文脈における2つの具体的設定を強調し、そこでは、まず、エントロピー正規化を伴う逆不均衡最適輸送(iUOT)であり、そこでは、推定するパラメータは、輸送計算を管理するコスト関数であり、機械学習におけるリンク予測のような応用がある。
二つ目は逆勾配流(iJKO)であり、これはジョーダン=キンデレラー=オットー(JKO)時間分解スキームを通して確率分布の進化を駆動するポテンシャル関数を復元することを目的としており、これは単細胞ゲノム学における細胞集団動態の理解に特に関係している。
最後に, 閉形式解が利用可能であるガウス分布の数値実験により, 提案手法の実用的性能を実証し, 提案手法の検証を行った。
関連論文リスト
- Stochastic Optimization with Optimal Importance Sampling [49.484190237840714]
本稿では,両者の時間的分離を必要とせずに,意思決定とIS分布を共同で更新する反復型アルゴリズムを提案する。
本手法は,IS分布系に対する目的的,軽度な仮定の凸性の下で,最小の変数分散を達成し,大域収束を保証する。
論文 参考訳(メタデータ) (2025-04-04T16:10:18Z) - Semiparametric Counterfactual Regression [2.356908851188234]
一般化可能なフレームワーク内での非実効的回帰のための2つの頑健なスタイル推定器を提案する。
当社のアプローチでは,標準手法を維持しながら適応性を高めるために,漸進的な介入を用いる。
解析の結果,提案した推定器は幅広い問題に対して$sqrn$-consistencyと正規性が得られることがわかった。
論文 参考訳(メタデータ) (2025-04-03T15:32:26Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Trust-Region Sequential Quadratic Programming for Stochastic Optimization with Random Models [57.52124921268249]
本稿では,1次と2次の両方の定常点を見つけるための信頼逐次準計画法を提案する。
本手法は, 1次定常点に収束するため, 対象対象の近似を最小化して定義された各イテレーションの勾配ステップを計算する。
2階定常点に収束するため,本手法は負曲率を減少するヘッセン行列を探索する固有ステップも計算する。
論文 参考訳(メタデータ) (2024-09-24T04:39:47Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [61.580419063416734]
最近の構造化学習手法のストリームは、様々な最適化問題に対する技術の実践的状態を改善している。
鍵となる考え方は、インスタンスを別々に扱うのではなく、インスタンス上の統計分布を利用することだ。
本稿では,最適化を容易にし,一般化誤差を改善するポリシを摂動することでリスクを円滑にする手法について検討する。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Data-Driven Influence Functions for Optimization-Based Causal Inference [105.5385525290466]
統計的汎関数に対するガトー微分を有限差分法で近似する構成的アルゴリズムについて検討する。
本研究では,確率分布を事前知識がないが,データから推定する必要がある場合について検討する。
論文 参考訳(メタデータ) (2022-08-29T16:16:22Z) - Integrated Conditional Estimation-Optimization [6.037383467521294]
確率のある不確実なパラメータを文脈的特徴情報を用いて推定できる実世界の多くの最適化問題である。
不確実なパラメータの分布を推定する標準的な手法とは対照的に,統合された条件推定手法を提案する。
当社のI CEOアプローチは、穏健な条件下で理論的に一貫性があることを示します。
論文 参考訳(メタデータ) (2021-10-24T04:49:35Z) - Semi-Discrete Optimal Transport: Hardness, Regularization and Numerical
Solution [8.465228064780748]
2つの点でサポートされる離散確率測度の間のWasserstein距離の計算が既に#P-hardであることを証明します。
目的関数が最も悪質な外乱分布で滑らかになる分布的に頑健な双対最適輸送問題を導入する。
双対目的関数の平滑化は主目的関数の正則化と等価であることを示す。
論文 参考訳(メタデータ) (2021-03-10T18:53:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。