論文の概要: Non-Linear Counterfactual Aggregate Optimization
- arxiv url: http://arxiv.org/abs/2509.03438v1
- Date: Wed, 03 Sep 2025 16:07:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.589148
- Title: Non-Linear Counterfactual Aggregate Optimization
- Title(参考訳): 非線形逆アグリゲート最適化
- Authors: Benjamin Heymann, Otmane Sakhi,
- Abstract要約: 結果の非線形関数を直接最適化する問題は、この結果自体が多数の小さな貢献の総和である。
個々の結果の和の濃度特性を活用することにより、スケーラブルな降下アルゴリズムを導出する。
- 参考スコア(独自算出の注目度): 5.65780894346598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of directly optimizing a non-linear function of an outcome, where this outcome itself is the sum of many small contributions. The non-linearity of the function means that the problem is not equivalent to the maximization of the expectation of the individual contribution. By leveraging the concentration properties of the sum of individual outcomes, we derive a scalable descent algorithm that directly optimizes for our stated objective. This allows for instance to maximize the probability of successful A/B test, for which it can be wiser to target a success criterion, such as exceeding a given uplift, rather than chasing the highest expected payoff.
- Abstract(参考訳): 結果の非線形関数を直接最適化する問題は、この結果自体が多数の小さな貢献の総和である。
関数の非線形性は、問題は個々の貢献の期待の最大化と等価ではないことを意味する。
個々の結果の総和の濃度特性を活用することにより、提案する目的のために直接最適化するスケーラブルな降下アルゴリズムを導出する。
例えば、A/Bテストが成功する確率を最大化することができ、最も期待される報酬を追求するよりも、与えられた昇給を超えるような成功基準を目標にするのが賢明である。
関連論文リスト
- Gradient-free stochastic optimization for additive models [50.57026826740147]
本稿では,Polyak-Lojasiewicz あるいは強凸条件を満たす目的関数に対する雑音観測によるゼロ次最適化の問題に対処する。
対象関数は加法的構造を持ち、H"古い関数族によって特徴づけられる高次滑らか性特性を満たすと仮定する。
論文 参考訳(メタデータ) (2025-03-03T23:39:08Z) - Dealing with unbounded gradients in stochastic saddle-point optimization [9.983014605039658]
本研究では,凸凹関数のサドル点を求める一階法の性能について検討する。
悪名高い課題は、最適化中に勾配が任意に大きくなることだ。
本稿では,反復を安定化し,有意義な性能保証を与える,シンプルで効果的な正則化手法を提案する。
論文 参考訳(メタデータ) (2024-02-21T16:13:49Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - High Probability Complexity Bounds for Non-Smooth Stochastic Optimization with Heavy-Tailed Noise [51.31435087414348]
アルゴリズムが高い確率で小さな客観的残差を与えることを理論的に保証することが不可欠である。
非滑らか凸最適化の既存の方法は、信頼度に依存した複雑性境界を持つ。
そこで我々は,勾配クリッピングを伴う2つの手法に対して,新たなステップサイズルールを提案する。
論文 参考訳(メタデータ) (2021-06-10T17:54:21Z) - Data-Driven Combinatorial Optimization with Incomplete Information: a
Distributionally Robust Optimization Approach [0.0]
我々は,コストベクトルが先行性を持たないが,有限データセットでしか観測できない線形最適化問題を解析する。
目標は、データセットを対象関数の期待値の推定値に変換する手順を見つけることである。
論文 参考訳(メタデータ) (2021-05-28T23:17:35Z) - A sampling criterion for constrained Bayesian optimization with
uncertainties [0.0]
本稿では,関数を最適化し,制約を満たす確率制約最適化の問題について考察する。
このような問題に対処するために,新しいベイズ最適化法を提案する。
これは、不確実性が入力の一部から生じる状況に適用され、共同制御された制御されていない入力空間における取得基準を定義することができる。
論文 参考訳(メタデータ) (2021-03-09T20:35:56Z) - Bayesian Optimization with Output-Weighted Optimal Sampling [0.0]
我々は、探索アルゴリズムを最小化すべき目的関数が異常に小さい値を仮定する入力空間の領域へ誘導する可能性比の利用を提唱する。
この研究で導入された "likelihood-weighted" 取得関数は、多くのアプリケーションにおいて、その非重みのないものよりも優れていることが判明した。
論文 参考訳(メタデータ) (2020-04-22T14:38:39Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。