論文の概要: Learning an arbitrary mixture of two multinomial logits
- arxiv url: http://arxiv.org/abs/2007.00204v2
- Date: Mon, 28 Sep 2020 09:28:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 22:35:43.342720
- Title: Learning an arbitrary mixture of two multinomial logits
- Title(参考訳): 2つの多項ロジットの任意の混合の学習
- Authors: Wenpin Tang
- Abstract要約: 我々は、任意のランダムなユーティリティモデルに対して$epsilon$-approximateとして知られ、MNL(Multinomial Logistic Model)の混合について検討する。
混合モデルの識別性は、無視可能な測度の代数多様体でのみ失敗することを示した。
サンプル数とクエリ数を用いて2つのMNLの混合を学習するアルゴリズムを考案した。
- 参考スコア(独自算出の注目度): 6.599344783327054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider mixtures of multinomial logistic models (MNL),
which are known to $\epsilon$-approximate any random utility model. Despite its
long history and broad use, rigorous results are only available for learning a
uniform mixture of two MNLs. Continuing this line of research, we study the
problem of learning an arbitrary mixture of two MNLs. We show that the
identifiability of the mixture models may only fail on an algebraic variety of
a negligible measure. This is done by reducing the problem of learning a
mixture of two MNLs to the problem of solving a system of univariate quartic
equations. We also devise an algorithm to learn any mixture of two MNLs using a
polynomial number of samples and a linear number of queries, provided that a
mixture of two MNLs over some finite universe is identifiable. Several
numerical experiments and conjectures are also presented.
- Abstract(参考訳): 本稿では,任意のランダム効用モデルに対して$\epsilon$-approximate と呼ばれる多項ロジスティックモデル (MNL) の混合について考察する。
長い歴史と幅広い使用にもかかわらず、厳密な結果は2つのmnlの均一な混合物を学ぶためにのみ利用できる。
この一連の研究を続けながら、2つのMNLの任意の混合を学習する問題を研究する。
混合モデルの識別性は無視可能な測度の代数的多様体上でのみ失敗することを示した。
これは、2つのMNLの混合を学習する問題を、単変量準方程式系の解法に還元することによる。
また、ある有限宇宙上の2つのMNLの混合が特定可能であることを条件として、多項式数と線形数を用いて2つのMNLの混合を学習するアルゴリズムを考案した。
いくつかの数値実験や予想も提示されている。
関連論文リスト
- Subtractive Mixture Models via Squaring: Representation and Learning [27.709662837157058]
提案手法は, 深層抽出混合物の学習と推論を行う方法である。
理論的には、減算を許容する正方形回路のクラスは、従来の添加剤の混合よりも指数関数的に表現可能であることを証明している。
論文 参考訳(メタデータ) (2023-10-01T16:51:58Z) - On the identifiability of mixtures of ranking models [19.97212445419573]
一般的なランキングモデルと2つのコンポーネントの混合は、汎用的に識別可能であることを示す。
システム全般における解数を検証するためのフレームワークを提供する。
論文 参考訳(メタデータ) (2022-01-31T11:23:31Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Learning Mixtures of Linear Dynamical Systems [94.49754087817931]
そこで我々は,2段階のメタアルゴリズムを開発し,各基底構造LPSモデルを誤り$tildeO(sqrtd/T)$.sqrtd/T)まで効率的に復元する。
提案手法の有効性を検証し,数値実験による理論的研究を検証する。
論文 参考訳(メタデータ) (2022-01-26T22:26:01Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Boosting Discriminative Visual Representation Learning with
Scenario-Agnostic Mixup [54.09898347820941]
自己教師付き学習(SSL)と教師付き学習(SL)の両方のシナリオに対して,textbfScenario-textbfAgnostic textbfMixup (SAMix)を提案する。
具体的には、2つの混合クラス間の局所的な滑らかさを最適化するために、混合生成の目的関数を仮説化し、検証する。
非自明な混合サンプルを効果的に提供し、転送可能な能力を向上させるラベルフリーな生成サブネットワークを設計する。
論文 参考訳(メタデータ) (2021-11-30T14:49:59Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Implicit MLE: Backpropagating Through Discrete Exponential Family
Distributions [24.389388509299543]
Implicit Maximum Likelihood Estimationは、離散指数族分布と微分可能なニューラル成分を組み合わせたモデルのエンドツーエンド学習のためのフレームワークである。
I-MLEは、問題固有の緩和に依存する既存のアプローチよりも優れており、しばしば優れていることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:42:21Z) - Settling the Robust Learnability of Mixtures of Gaussians [19.229475414802213]
一定の数のガウスの混合を学習するための、証明可能な最初のロバストなアルゴリズムを与える。
我々のアルゴリズムの核心は、次元に依存しない識別性を証明するための新しい方法である。
私たちが導いた記号的アイデンティティは、どのようにして自然な2乗和緩和を分析するために直接使用されるかを示す。
論文 参考訳(メタデータ) (2020-11-06T22:36:00Z) - Self-regularizing Property of Nonparametric Maximum Likelihood Estimator
in Mixture Models [39.27013036481509]
一般ガウス混合に対する非パラメトリック最大度(NPMLE)モデルを導入する。
サンプルサイズに基づくNPMLEは高い確率で$O(log n)$原子(質量点)を持つことを示す。
特に、任意の混合は、$Olog選択を持つ有限の混合から統計的に入っている。
論文 参考訳(メタデータ) (2020-08-19T03:39:13Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。