論文の概要: Simultaneous estimation of multiple discrete unimodal distributions under stochastic order constraints
- arxiv url: http://arxiv.org/abs/2603.11532v1
- Date: Thu, 12 Mar 2026 04:36:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.867802
- Title: Simultaneous estimation of multiple discrete unimodal distributions under stochastic order constraints
- Title(参考訳): 確率的順序制約下での多重離散単調分布の同時推定
- Authors: Yasuhiro Yoshida, Noriyoshi Sukegawa, Jiro Iwanaga,
- Abstract要約: 本研究では,実世界のプラットフォーム上での探索行動解析によって動機付けられた複数の離散的な一助分布を推定する問題について検討する。
分布間の優先関係の事前知識を取り入れるために、順序制約を課し、混合整数凸最適化問題として推定タスクを定式化する。
合成データセットと実データの両方の実験により、サンプルサイズが小さい場合、提案手法は平均で2.2%(最大6.3%)のJensen-Shannon分散を減少させることが示された。
- 参考スコア(独自算出の注目度): 1.0323063834827415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of estimating multiple discrete unimodal distributions, motivated by search behavior analysis on a real-world platform. To incorporate prior knowledge of precedence relations among distributions, we impose stochastic order constraints and formulate the estimation task as a mixed-integer convex quadratic optimization problem. Experiments on both synthetic and real datasets show that the proposed method reduces the Jensen-Shannon divergence by 2.2% on average (up to 6.3%) when the sample size is small, while performing comparably to existing methods when sufficient data are available.
- Abstract(参考訳): 本研究では,実世界のプラットフォーム上での探索行動解析により,複数の離散的な一助分布を推定する問題について検討する。
分布間の先行関係の事前知識を取り入れるために,確率的順序制約を課し,混合整数凸2次最適化問題として推定タスクを定式化する。
合成データと実データの両方を用いた実験により, サンプルサイズが小さい場合, ジェンセン-シャノンの偏差が平均で2.2%(最大6.3%)減少し, 十分なデータが得られる場合, 既存の手法と相容れない結果が得られた。
関連論文リスト
- Information-Theoretic Proofs for Diffusion Sampling [13.095978794717007]
本稿では, 拡散法に基づくジェネレーティブ・モデリング手法の基本的, 自己完結型分析法を提案する。
拡散ステップサイズが十分に小さい場合、サンプリング分布はターゲット分布に確実に近いことを示す。
また,各ステップの高次モーメントを一致させるために,各ステップに付加的なランダム性を用いることで収束を加速する方法についての透過的なビューを提供する。
論文 参考訳(メタデータ) (2025-02-04T13:19:21Z) - Estimation of multiple mean vectors in high dimension [4.2466572124753]
我々は,独立標本に基づいて,共通空間上の様々な確率分布の多次元的手段を推定する。
我々のアプローチは、これらのサンプルから得られた経験的手段の凸結合による推定器の形成である。
論文 参考訳(メタデータ) (2024-03-22T08:42:41Z) - Diffusion Models as Constrained Samplers for Optimization with Unknown Constraints [55.39203337683045]
拡散モデルを用いてデータ多様体内で最適化を行う。
目的関数の微分可能性に応じて,2つの異なるサンプリング手法を提案する。
提案手法は,従来の最先端のベースラインよりも優れた,あるいは同等のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-02-28T03:09:12Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates [5.13323375365494]
我々は,強い対数対数データの下での拡散に基づく生成モデルの収束挙動を理論的に保証する。
スコア推定に使用される関数のクラスは、スコア関数上のリプシッツネスの仮定を避けるために、リプシッツ連続関数からなる。
この手法はサンプリングアルゴリズムにおいて最もよく知られた収束率をもたらす。
論文 参考訳(メタデータ) (2023-11-22T18:40:45Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。