論文の概要: A Neural-embedded Choice Model: TasteNet-MNL Modeling Taste
Heterogeneity with Flexibility and Interpretability
- arxiv url: http://arxiv.org/abs/2002.00922v2
- Date: Fri, 1 Jul 2022 17:42:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:32:26.188751
- Title: A Neural-embedded Choice Model: TasteNet-MNL Modeling Taste
Heterogeneity with Flexibility and Interpretability
- Title(参考訳): ニューラル埋め込み選択モデル:フレキシビリティと解釈性を備えた味の不均一性モデリング
- Authors: Yafei Han, Francisco Camara Pereira, Moshe Ben-Akiva, Christopher
Zegras
- Abstract要約: 離散選択モデル(DCM)は実用機能、特に個人間での味の相違について事前知識を必要とする。
本稿では,ニューラルネットワークを用いて味の表現を学習する。
本研究では,TasteNet-MNLが基底構造モデルの予測可能性に到達し,合成データから非線形味関数を復元することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete choice models (DCMs) require a priori knowledge of the utility
functions, especially how tastes vary across individuals. Utility
misspecification may lead to biased estimates, inaccurate interpretations and
limited predictability. In this paper, we utilize a neural network to learn
taste representation. Our formulation consists of two modules: a neural network
(TasteNet) that learns taste parameters (e.g., time coefficient) as flexible
functions of individual characteristics; and a multinomial logit (MNL) model
with utility functions defined with expert knowledge. Taste parameters learned
by the neural network are fed into the choice model and link the two modules.
Our approach extends the L-MNL model (Sifringer et al., 2020) by allowing the
neural network to learn the interactions between individual characteristics and
alternative attributes. Moreover, we formalize and strengthen the
interpretability condition - requiring realistic estimates of behavior
indicators (e.g., value-of-time, elasticity) at the disaggregated level, which
is crucial for a model to be suitable for scenario analysis and policy
decisions. Through a unique network architecture and parameter transformation,
we incorporate prior knowledge and guide the neural network to output realistic
behavior indicators at the disaggregated level. We show that TasteNet-MNL
reaches the ground-truth model's predictability and recovers the nonlinear
taste functions on synthetic data. Its estimated value-of-time and choice
elasticities at the individual level are close to the ground truth. On a
publicly available Swissmetro dataset, TasteNet-MNL outperforms benchmarking
MNLs and Mixed Logit model's predictability. It learns a broader spectrum of
taste variations within the population and suggests a higher average
value-of-time.
- Abstract(参考訳): 離散選択モデル(dcms)は、効用関数、特に個人の味がどう変化するかの事前知識を必要とする。
ユーティリティの誤特定は、バイアス付き見積もり、不正確な解釈、予測可能性の制限につながる可能性がある。
本稿では,ニューラルネットワークを用いて味覚表現の学習を行う。
我々の定式化は2つのモジュールから構成される: 味パラメータ(例えば時間係数)を個々の特性の柔軟な関数として学習するニューラルネットワーク(TasteNet)と、専門知識で定義された実用機能を持つ多項ロジット(MNL)モデルである。
ニューラルネットワークが学習した味覚パラメータを選択モデルに入力し、2つのモジュールをリンクする。
我々のアプローチは、ニューラルネットワークが個々の特性と代替属性の間の相互作用を学習できるようにすることでL-MNLモデル(Sifringer et al., 2020)を拡張する。
さらに, モデルがシナリオ分析や政策決定に適合するためには, 行動指標(例えば, 時間的価値, 弾力性)の現実的な推定が不可欠である, 解釈可能性条件を定式化し, 強化する。
独自のネットワークアーキテクチャとパラメータ変換を通じて、事前知識を取り入れ、ニューラルネットワークを誘導し、非集約レベルで現実的な行動指標を出力する。
tastenet-mnl は基底モデルの予測可能性に達し, 合成データ上での非線形味覚関数を回復する。
その推定時間の値と個々のレベルの選択の弾力性は、基礎的な真実に近い。
公開されているSwissmetroデータセットでは、TasteNet-MNLがベンチマークMNLとMixed Logitモデルの予測可能性を上回っている。
集団内で幅広い味のバリエーションを学習し、より高い平均的な時間価値を示唆する。
関連論文リスト
- WaLiN-GUI: a graphical and auditory tool for neuron-based encoding [73.88751967207419]
ニューロモルフィックコンピューティングはスパイクベースのエネルギー効率の高い通信に依存している。
本研究では, スパイクトレインへのサンプルベースデータの符号化に適した構成を同定するツールを開発した。
WaLiN-GUIはオープンソースとドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-10-25T20:34:08Z) - Discrete-Choice Model with Generalized Additive Utility Network [0.0]
線形ユーティリティ関数を持つマルチノードロジットモデル (MNL) は, 使いやすく, 解釈しやすいため, 実際に用いられている。
一般化加法モデルに基づくニューラルネットアーキテクチャを用いたユーティリティ関数を開発した。
我々のモデルは精度はASU-DNNに匹敵し,従来のモデルと比較して解釈性が向上した。
論文 参考訳(メタデータ) (2023-09-29T04:40:01Z) - The Contextual Lasso: Sparse Linear Models via Deep Neural Networks [5.607237982617641]
本研究では,空間的特徴の関数として空間的パターンと係数が変化するような説明的特徴に疎線形モデルに適合する新しい統計的推定器を開発する。
実データと合成データに関する広範な実験は、学習されたモデルは、非常に透明であり、通常のラッソよりもスペーサーであることを示している。
論文 参考訳(メタデータ) (2023-02-02T05:00:29Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Combining Discrete Choice Models and Neural Networks through Embeddings:
Formulation, Interpretability and Performance [10.57079240576682]
本研究では、ニューラルネットワーク(ANN)を用いた理論とデータ駆動選択モデルを組み合わせた新しいアプローチを提案する。
特に、分類的または離散的説明変数を符号化するために、埋め込みと呼ばれる連続ベクトル表現を用いる。
我々のモデルは最先端の予測性能を提供し、既存のANNモデルよりも優れ、必要なネットワークパラメータの数を劇的に削減します。
論文 参考訳(メタデータ) (2021-09-24T15:55:31Z) - It's FLAN time! Summing feature-wise latent representations for
interpretability [0.0]
FLAN(Feature-wise Latent Additive Networks)と呼ばれる構造拘束型ニューラルネットワークの新たなクラスを提案する。
FLANは各入力機能を別々に処理し、それぞれに共通の潜在空間の表現を演算する。
これらの特徴的潜在表現は単純に要約され、集約された表現は予測に使用される。
論文 参考訳(メタデータ) (2021-06-18T12:19:33Z) - Flexible, Non-parametric Modeling Using Regularized Neural Networks [0.0]
PrAda-netは、近位勾配降下と適応ラッソで訓練された1つの隠れ層ニューラルネットワークである。
ニューラルネットワークのサイズとアーキテクチャを自動的に調整して、基盤となるデータ生成モデルの構造をキャプチャする。
シミュレーションデータ上でprada-netを実演し,テストエラー性能,変数重要度,変数サブセット識別特性を比較した。
我々はまた、prada-netをイギリスの巨大なブラックスモークデータセットに適用し、prada-netをgamsの代替品として使う能力を示す。
論文 参考訳(メタデータ) (2020-12-18T08:49:04Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z) - Flexible Transmitter Network [84.90891046882213]
現在のニューラルネットワークはMPモデルに基づいて構築されており、通常はニューロンを他のニューロンから受信した信号の実際の重み付け集約上での活性化関数の実行として定式化する。
本稿では,フレキシブル・トランスミッタ(FT)モデルを提案する。
本稿では、最も一般的な完全接続型フィードフォワードアーキテクチャ上に構築された、フレキシブルトランスミッタネットワーク(FTNet)について述べる。
論文 参考訳(メタデータ) (2020-04-08T06:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。