論文の概要: The Use of Binary Choice Forests to Model and Estimate Discrete Choices
- arxiv url: http://arxiv.org/abs/1908.01109v5
- Date: Wed, 17 Apr 2024 04:02:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-19 21:05:42.589285
- Title: The Use of Binary Choice Forests to Model and Estimate Discrete Choices
- Title(参考訳): 二次選択林を用いた離散的選択のモデル化と推定
- Authors: Ningyuan Chen, Guillermo Gallego, Zhuodong Tang,
- Abstract要約: 小売業では、顧客の選択行動を捉えるために、離散選択モデル(DCM)が一般的に使用される。
本研究では,二分決定木の森林を用いてDCMを表現した。
提案手法は,任意のDCMの選択確率を連続的に予測し,不特定性に悩まされないことを示す。
- 参考スコア(独自算出の注目度): 15.952584576883973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Problem definition. In retailing, discrete choice models (DCMs) are commonly used to capture the choice behavior of customers when offered an assortment of products. When estimating DCMs using transaction data, flexible models (such as machine learning models or nonparametric models) are typically not interpretable and hard to estimate, while tractable models (such as the multinomial logit model) tend to misspecify the complex behavior represeted in the data. Methodology/results. In this study, we use a forest of binary decision trees to represent DCMs. This approach is based on random forests, a popular machine learning algorithm. The resulting model is interpretable: the decision trees can explain the decision-making process of customers during the purchase. We show that our approach can predict the choice probability of any DCM consistently and thus never suffers from misspecification. Moreover, our algorithm predicts assortments unseen in the training data. The mechanism and errors can be theoretically analyzed. We also prove that the random forest can recover preference rankings of customers thanks to the splitting criterion such as the Gini index and information gain ratio. Managerial implications. The framework has unique practical advantages. It can capture customers' behavioral patterns such as irrationality or sequential searches when purchasing a product. It handles nonstandard formats of training data that result from aggregation. It can measure product importance based on how frequently a random customer would make decisions depending on the presence of the product. It can also incorporate price information and customer features. Our numerical experiments using synthetic and real data show that using random forests to estimate customer choices can outperform existing methods.
- Abstract(参考訳): 問題定義。
小売業において、個別選択モデル(DCM)は、商品の品揃えを提供する際に、顧客の選択行動を把握するために一般的に使用される。
トランザクションデータを用いてDCMを推定する場合、フレキシブルモデル(機械学習モデルや非パラメトリックモデルなど)は解釈が難しく、推定が難しい。
メソッド/リスート。
本研究では,二分決定木の森林を用いてDCMを表現した。
このアプローチは、一般的な機械学習アルゴリズムであるランダムフォレストに基づいている。
意思決定ツリーは、購入中の顧客の意思決定プロセスを説明することができます。
提案手法は,任意のDCMの選択確率を連続的に予測し,不特定性に悩まされないことを示す。
さらに,本アルゴリズムはトレーニングデータに見つからないアソシエーションを予測する。
メカニズムとエラーは理論的に解析できる。
また、Gini指数や情報ゲイン比などの分割基準により、ランダム森林が顧客の嗜好ランクを回復できることを示す。
管理上の意味。
このフレームワークにはユニークな実用上の利点がある。
商品を購入する際に、不合理性やシーケンシャルな検索などの顧客の行動パターンをキャプチャできる。
集約によるトレーニングデータの非標準フォーマットを処理する。
ランダムな顧客が製品の存在に応じて意思決定をする頻度に基づいて、製品の重要性を測定することができる。
価格情報や顧客機能も組み込むこともできる。
合成データと実データを用いた数値実験により、ランダムな森林を用いて顧客の選択を推定することで、既存の手法よりも優れていることが示された。
関連論文リスト
- DCID: Deep Canonical Information Decomposition [84.59396326810085]
本稿では,2つの1次元目標変数間で共有される信号の同定について考察する。
そこで本研究では,地中トラスラベルの存在下で使用可能な評価指標であるICMを提案する。
また、共有変数を学習するための単純かつ効果的なアプローチとして、Deep Canonical Information Decomposition (DCID)を提案する。
論文 参考訳(メタデータ) (2023-06-27T16:59:06Z) - Gaussian Process Probes (GPP) for Uncertainty-Aware Probing [61.91898698128994]
モデルによって表現される概念に関する不確実性を探索し、測定するための統一的でシンプルなフレームワークを導入する。
実験の結果,(1)ごく少数の例でも,モデルの概念表現を探索し,(2)認識の不確実性(プローブがどの程度確実か)と解離不確実性(モデルがファジィか)を正確に測定し,(3)これらの不確実性尺度と古典的手法を用いて分布データの検出を行うことができた。
論文 参考訳(メタデータ) (2023-05-29T17:00:16Z) - Active Learning for Non-Parametric Choice Models [9.737139416043949]
本研究では,消費者の判断に基づいて,非パラメトリック選択モデルを積極的に学習する問題について検討する。
このような選択モデルが識別できない可能性があることを示す否定的な結果を示す。
論文 参考訳(メタデータ) (2022-08-05T18:26:33Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - On the estimation of discrete choice models to capture irrational
customer behaviors [4.683806391173103]
我々は、部分的にランク付けされた好みを使って、トランザクションデータから合理的で不合理な顧客タイプを効率的にモデル化する方法を示す。
提案手法の予測精度を評価する実験を幅広く行った。
論文 参考訳(メタデータ) (2021-09-08T19:19:51Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - An exact counterfactual-example-based approach to tree-ensemble models
interpretability [0.0]
高性能モデルは、決定を完全に理解するために必要な透明性を示さない。
多次元間隔の集まりの形で、決定領域の正確な幾何学的特徴付けを導出できる。
回帰問題に対する推論への適応も考えられている。
論文 参考訳(メタデータ) (2021-05-31T09:32:46Z) - How to Learn when Data Reacts to Your Model: Performative Gradient
Descent [10.074466859579571]
性能的に最適な点に収束する最初のアルゴリズムであるPerfGD(Performative gradient descend)を紹介します。
PerfGDは、モデルの変更がデータ分布にどのように影響するかを明示的にキャプチャし、使いやすいです。
論文 参考訳(メタデータ) (2021-02-15T17:49:36Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - Model family selection for classification using Neural Decision Trees [4.286327408435937]
本稿では,タスクに必要な探索範囲を削減する手法を提案する。
その考え方は、厳格な決定境界を持つ特定のファミリー、参照モデル(RM)の訓練されたインスタンスから、どのくらいの費用を逸脱する必要があるかの定量化である。
論文 参考訳(メタデータ) (2020-06-20T01:27:01Z) - Decision-Making with Auto-Encoding Variational Bayes [71.44735417472043]
変分分布とは異なる後部近似を用いて意思決定を行うことが示唆された。
これらの理論的な結果から,最適モデルに関するいくつかの近似的提案を学習することを提案する。
おもちゃの例に加えて,単細胞RNAシークエンシングのケーススタディも紹介する。
論文 参考訳(メタデータ) (2020-02-17T19:23:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。