論文の概要: It's All in the Mix: Wasserstein Machine Learning with Mixed Features
- arxiv url: http://arxiv.org/abs/2312.12230v1
- Date: Tue, 19 Dec 2023 15:15:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-20 15:16:27.969284
- Title: It's All in the Mix: Wasserstein Machine Learning with Mixed Features
- Title(参考訳): すべては混ざり合っている:wasserstein machine learning with mixed features
- Authors: Reza Belbasi and Aras Selvi and Wolfram Wiesemann
- Abstract要約: 混合機能問題の解法として,実用的なアルゴリズムを提案する。
提案手法は, 個々の特徴が存在する場合の既存手法を著しく上回りうることを示す。
- 参考スコア(独自算出の注目度): 5.739657897440173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Problem definition: The recent advent of data-driven and end-to-end
decision-making across different areas of operations management has led to an
ever closer integration of prediction models from machine learning and
optimization models from operations research. A key challenge in this context
is the presence of estimation errors in the prediction models, which tend to be
amplified by the subsequent optimization model -- a phenomenon that is often
referred to as the Optimizer's Curse or the Error-Maximization Effect of
Optimization.
Methodology/results: A contemporary approach to combat such estimation errors
is offered by distributionally robust problem formulations that consider all
data-generating distributions close to the empirical distribution derived from
historical samples, where `closeness' is determined by the Wasserstein
distance. While those techniques show significant promise in problems where all
input features are continuous, they scale exponentially when binary and/or
categorical features are present. This paper demonstrates that such
mixed-feature problems can indeed be solved in polynomial time. We present a
practically efficient algorithm to solve mixed-feature problems, and we compare
our method against alternative techniques both theoretically and empirically on
standard benchmark instances.
Managerial implications: Data-driven operations management problems often
involve prediction models with discrete features. We develop and analyze a
methodology that faithfully accounts for the presence of discrete features, and
we demonstrate that our approach can significantly outperform existing methods
that are agnostic to the presence of discrete features, both theoretically and
across standard benchmark instances.
- Abstract(参考訳): 問題定義: さまざまなオペレーション管理分野にわたるデータ駆動とエンドツーエンドの意思決定の最近の出現により、マシンラーニングから予測モデル、オペレーションリサーチから最適化モデルがより緊密に統合されるようになった。
この文脈における重要な課題は、予測モデルにおける推定誤差の存在であり、これは次の最適化モデルによって増幅されがちであり、これはオプティマイザの呪いや最適化の誤差最大化効果と呼ばれる現象である。
方法論/再帰性: このような推定誤差に対処するための現代のアプローチは、歴史的サンプルから得られる経験的分布に近い全てのデータ生成分布をワッサーシュタイン距離で決定する、分布的に堅牢な問題定式化によって提供される。
これらの手法は、全ての入力特徴が連続している問題において有望であるが、バイナリや分類的特徴が存在する場合、指数関数的にスケールする。
本稿では,このような混合機能問題を多項式時間で解くことができることを示す。
本稿では,混合機能問題の解法として,提案手法を標準ベンチマークインスタンス上で理論的,実証的に比較する。
管理的意味: データ駆動型オペレーション管理の問題は、しばしば離散的な機能を持つ予測モデルを伴う。
我々は,離散的特徴の存在を忠実に考慮した方法論を開発し分析し,理論上および標準ベンチマークインスタンス間において,個別的特徴の存在に無依存な既存手法を著しく上回ることができることを示す。
関連論文リスト
- Learning from Uncertain Data: From Possible Worlds to Possible Models [13.789554282826835]
本研究では,不確実性のあるデータから線形モデルを学習するための効率的な手法を提案する。
我々はこれらのデータセットの変動をコンパクトに表現し、すべての可能な世界における勾配勾配のシンボリックな実行を可能にする。
提案手法は,全ての可能な最適モデルと予測範囲を過度に近似する。
論文 参考訳(メタデータ) (2024-05-28T19:36:55Z) - Structured Radial Basis Function Network: Modelling Diversity for
Multiple Hypotheses Prediction [51.82628081279621]
多重モード回帰は非定常過程の予測や分布の複雑な混合において重要である。
構造的放射基底関数ネットワークは回帰問題に対する複数の仮説予測器のアンサンブルとして提示される。
この構造モデルにより, このテッセルレーションを効率よく補間し, 複数の仮説対象分布を近似することが可能であることが証明された。
論文 参考訳(メタデータ) (2023-09-02T01:27:53Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Modeling Score Distributions and Continuous Covariates: A Bayesian
Approach [8.772459063453285]
連続共変量に対するマッチングと非マッチスコア分布の生成モデルを構築した。
混合モデルを用いて任意の分布と局所基底関数をキャプチャする。
提案手法の精度と有効性を示す3つの実験を行った。
論文 参考訳(メタデータ) (2020-09-21T02:41:20Z) - Robust, Accurate Stochastic Optimization for Variational Inference [68.83746081733464]
また, 共通最適化手法は, 問題が適度に大きい場合, 変分近似の精度が低下することを示した。
これらの結果から,基礎となるアルゴリズムをマルコフ連鎖の生成とみなして,より堅牢で正確な最適化フレームワークを開発する。
論文 参考訳(メタデータ) (2020-09-01T19:12:11Z) - Modal Uncertainty Estimation via Discrete Latent Representation [4.246061945756033]
本稿では,インプットとアウトプットの1対1マッピングを,忠実な不確実性対策とともに学習するディープラーニングフレームワークを提案する。
我々のフレームワークは、現在の最先端手法よりもはるかに正確な不確実性推定を実証している。
論文 参考訳(メタデータ) (2020-07-25T05:29:34Z) - MAGMA: Inference and Prediction with Multi-Task Gaussian Processes [4.368185344922342]
タスク間で情報を共有するための共通平均プロセスを用いて,新しいマルチタスクガウスプロセス(GP)フレームワークを提案する。
私たちの全体的なアルゴリズムは textscMagma と呼ばれています(MeAn を用いた Multi tAsk Gaussian プロセスに対応しています)。
論文 参考訳(メタデータ) (2020-07-21T11:43:54Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。