論文の概要: Gaussian Process Latent Class Choice Models
- arxiv url: http://arxiv.org/abs/2101.12252v1
- Date: Thu, 28 Jan 2021 19:56:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 11:10:12.614531
- Title: Gaussian Process Latent Class Choice Models
- Title(参考訳): ガウス過程潜在クラス選択モデル
- Authors: Georges Sfeir, Filipe Rodrigues, Maya Abou-Zeid
- Abstract要約: 離散選択モデル(DCM)における確率的機械学習の非パラメトリッククラスを提案する。
提案モデルでは,GPを用いた行動同質クラスタ(ラテントクラス)に確率的に個人を割り当てる。
モデルは2つの異なるモード選択アプリケーションでテストされ、異なるLCCMベンチマークと比較される。
- 参考スコア(独自算出の注目度): 7.992550355579791
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a Gaussian Process - Latent Class Choice Model (GP-LCCM) to
integrate a non-parametric class of probabilistic machine learning within
discrete choice models (DCMs). Gaussian Processes (GPs) are kernel-based
algorithms that incorporate expert knowledge by assuming priors over latent
functions rather than priors over parameters, which makes them more flexible in
addressing nonlinear problems. By integrating a Gaussian Process within a LCCM
structure, we aim at improving discrete representations of unobserved
heterogeneity. The proposed model would assign individuals probabilistically to
behaviorally homogeneous clusters (latent classes) using GPs and simultaneously
estimate class-specific choice models by relying on random utility models.
Furthermore, we derive and implement an Expectation-Maximization (EM) algorithm
to jointly estimate/infer the hyperparameters of the GP kernel function and the
class-specific choice parameters by relying on a Laplace approximation and
gradient-based numerical optimization methods, respectively. The model is
tested on two different mode choice applications and compared against different
LCCM benchmarks. Results show that GP-LCCM allows for a more complex and
flexible representation of heterogeneity and improves both in-sample fit and
out-of-sample predictive power. Moreover, behavioral and economic
interpretability is maintained at the class-specific choice model level while
local interpretation of the latent classes can still be achieved, although the
non-parametric characteristic of GPs lessens the transparency of the model.
- Abstract(参考訳): 本稿では,非パラメトリックな確率的機械学習のクラスを個別選択モデル(DCM)に組み込むために,ガウス過程-潜在クラス選択モデル(GP-LCCM)を提案する。
ガウス過程(英: Gaussian Processs、GP)は、パラメータよりも先行関数よりも先行関数を仮定することで、専門家の知識を取り入れたカーネルベースのアルゴリズムである。
LCCM構造にガウス過程を統合することにより、観測されていない不均一性の離散表現を改善することを目指す。
提案モデルでは,GPを用いた行動均質クラスタ(遅延クラス)に確率的に個人を割り当て,ランダムなユーティリティモデルによるクラス固有の選択モデルを同時に推定する。
さらに,ラプラス近似と勾配に基づく数値最適化法に依拠して,gpカーネル関数のハイパーパラメータとクラス固有選択パラメータを同時推定する期待最大化(em)アルゴリズムを導出し,実装する。
モデルは2つの異なるモード選択アプリケーションでテストされ、異なるLCCMベンチマークと比較される。
その結果,GP-LCCMは不均一性のより複雑で柔軟な表現を可能にし,サンプル内適合性とサンプル外予測力の両方を改善した。
さらに,gpsの非パラメトリックな特性はモデルの透明性を低下させるが,潜在クラスの局所的な解釈は依然として達成できるものの,行動的および経済的解釈性はクラス固有の選択モデルレベルで維持される。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Proximal Interacting Particle Langevin Algorithms [0.0]
本稿では,潜時変動モデルにおける推論と学習のためのPIPLAアルゴリズムを提案する。
非微分不可能な統計モデルにおけるパラメータ推定の問題に合わせた、新しい近位IPLAファミリー内のいくつかの変種を提案する。
我々の理論と実験は、PIPLAファミリーが非微分可能モデルの潜在変数モデルにおけるパラメータ推定問題のデファクト選択であることを示している。
論文 参考訳(メタデータ) (2024-06-20T13:16:41Z) - Polynomial Chaos Expanded Gaussian Process [2.287415292857564]
複雑で未知のプロセスでは、大域的モデルは最初実験空間全体にわたって生成される。
本研究では,グローバルな実験空間とローカルな実験空間の両方を効果的に表現するモデルの必要性に対処する。
論文 参考訳(メタデータ) (2024-05-02T07:11:05Z) - Sample Complexity Characterization for Linear Contextual MDPs [67.79455646673762]
文脈決定プロセス(CMDP)は、遷移カーネルと報酬関数がコンテキスト変数によってインデックス付けされた異なるMDPで時間とともに変化できる強化学習のクラスを記述する。
CMDPは、時間とともに変化する環境で多くの現実世界のアプリケーションをモデル化するための重要なフレームワークとして機能する。
CMDPを2つの線形関数近似モデルで検討する: 文脈変化表現とすべての文脈に対する共通線形重み付きモデルIと、すべての文脈に対する共通表現と文脈変化線形重み付きモデルIIである。
論文 参考訳(メタデータ) (2024-02-05T03:25:04Z) - Surrogate modeling for Bayesian optimization beyond a single Gaussian
process [62.294228304646516]
本稿では,探索空間の活用と探索のバランスをとるための新しいベイズ代理モデルを提案する。
拡張性のある関数サンプリングを実現するため、GPモデル毎にランダムな特徴ベースのカーネル近似を利用する。
提案した EGP-TS を大域的最適に収束させるため,ベイズ的後悔の概念に基づいて解析を行う。
論文 参考訳(メタデータ) (2022-05-27T16:43:10Z) - Community Detection in the Stochastic Block Model by Mixed Integer
Programming [3.8073142980733]
Degree-Corrected Block Model (DCSBM) は、コミュニティ構造を持つランダムグラフを生成する一般的なモデルである。
DCSBMに基づくコミュニティ検出の標準的なアプローチは、最大推定(MLE)により観測されたネットワークデータを生成する可能性が最も高いモデルパラメータを探索することである。
本稿では,モデルパラメータと最大確率のコミュニティ割当を観測グラフから確実に求める数学的計画式と厳密解法を提案する。
論文 参考訳(メタデータ) (2021-01-26T22:04:40Z) - Autoregressive Score Matching [113.4502004812927]
自動回帰条件スコアモデル(AR-CSM)を提案する。
AR-CSMモデルでは、このデータ分布とモデル分布のばらつきを効率的に計算し、最適化することができ、高価なサンプリングや対向訓練を必要としない。
本研究では,合成データに対する密度推定,画像生成,画像復調,暗黙エンコーダを用いた潜在変数モデルの訓練に応用できることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:01:24Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Identification of Probability weighted ARX models with arbitrary domains [75.91002178647165]
PieceWise Affineモデルは、ハイブリッドシステムの他のクラスに対する普遍近似、局所線型性、同値性を保証する。
本研究では,任意の領域を持つ固有入力モデル(NPWARX)を用いたPieceWise Auto Regressiveの同定に着目する。
このアーキテクチャは、機械学習の分野で開発されたMixture of Expertの概念に従って考案された。
論文 参考訳(メタデータ) (2020-09-29T12:50:33Z) - Semi-nonparametric Latent Class Choice Model with a Flexible Class
Membership Component: A Mixture Model Approach [6.509758931804479]
提案したモデルは、従来のランダムユーティリティ仕様に代わるアプローチとして混合モデルを用いて潜在クラスを定式化する。
その結果,混合モデルにより潜在クラス選択モデル全体の性能が向上した。
論文 参考訳(メタデータ) (2020-07-06T13:19:26Z) - Differentiable Segmentation of Sequences [2.1485350418225244]
我々は、連続的なワープ関数の学習の進歩の上に構築し、双方向パワー(TSP)分布に基づく新しいワープ関数のファミリーを提案する。
我々の定式化は特別な場合として分割一般化線型モデルの重要なクラスを含む。
我々は、PoissonレグレッションによるCOVID-19の拡散をモデル化し、変化点検出タスクに適用し、概念ドリフトによる分類モデルを学習する。
論文 参考訳(メタデータ) (2020-06-23T15:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。