論文の概要: Incorporating Domain Knowledge in Deep Neural Networks for Discrete
Choice Models
- arxiv url: http://arxiv.org/abs/2306.00016v1
- Date: Tue, 30 May 2023 12:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 20:47:45.994181
- Title: Incorporating Domain Knowledge in Deep Neural Networks for Discrete
Choice Models
- Title(参考訳): 離散的選択モデルのためのディープニューラルネットワークにドメイン知識を組み込む
- Authors: Shadi Haj-Yahia, Omar Mansour, Tomer Toledo
- Abstract要約: 本稿では,DCMにおけるデータ駆動型アプローチの可能性を拡張するフレームワークを提案する。
これには、必要な関係を表す擬似データサンプルと、その実現度を測定する損失関数が含まれる。
ケーススタディは、このフレームワークの個別選択分析の可能性を示している。
- 参考スコア(独自算出の注目度): 0.5801044612920815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Discrete choice models (DCM) are widely employed in travel demand analysis as
a powerful theoretical econometric framework for understanding and predicting
choice behaviors. DCMs are formed as random utility models (RUM), with their
key advantage of interpretability. However, a core requirement for the
estimation of these models is a priori specification of the associated utility
functions, making them sensitive to modelers' subjective beliefs. Recently,
machine learning (ML) approaches have emerged as a promising avenue for
learning unobserved non-linear relationships in DCMs. However, ML models are
considered "black box" and may not correspond with expected relationships. This
paper proposes a framework that expands the potential of data-driven approaches
for DCM by supporting the development of interpretable models that incorporate
domain knowledge and prior beliefs through constraints. The proposed framework
includes pseudo data samples that represent required relationships and a loss
function that measures their fulfillment, along with observed data, for model
training. The developed framework aims to improve model interpretability by
combining ML's specification flexibility with econometrics and interpretable
behavioral analysis. A case study demonstrates the potential of this framework
for discrete choice analysis.
- Abstract(参考訳): 離散選択モデル(DCM)は、選択行動の理解と予測のための強力な理論的計量フレームワークとして、旅行需要分析に広く利用されている。
DCMはランダムユーティリティモデル(RUM)として形成され、その重要な利点は解釈可能性である。
しかしながら、これらのモデル推定のコア要件は、関連するユーティリティ関数の事前仕様であり、モデリング者の主観的信念に敏感である。
近年、機械学習(ML)アプローチは、DCMにおける観測されていない非線形関係を学習するための有望な道として現れている。
しかし、MLモデルは「ブラックボックス」と見なされ、期待される関係とは一致しないかもしれない。
本稿では,ドメイン知識と事前信念を制約を通じて組み込んだ解釈可能なモデルの開発を支援することにより,DCMにおけるデータ駆動アプローチの可能性を拡張する枠組みを提案する。
提案フレームワークは,要求される関係を表す擬似データサンプルと,モデルトレーニングのための観測データとともに,その達成度を測定する損失関数を含む。
このフレームワークは、mlの仕様の柔軟性と計量学と解釈可能な行動分析を組み合わせることで、モデル解釈性を改善することを目的としている。
ケーススタディは、このフレームワークの個別選択分析の可能性を示している。
関連論文リスト
- Benchmarks as Microscopes: A Call for Model Metrology [76.64402390208576]
現代の言語モデル(LM)は、能力評価において新たな課題を提起する。
メトリクスに自信を持つためには、モデルミアロジの新たな規律が必要です。
論文 参考訳(メタデータ) (2024-07-22T17:52:12Z) - Constructing Concept-based Models to Mitigate Spurious Correlations with Minimal Human Effort [31.992947353231564]
概念ボトルネックモデル(Concept Bottleneck Models, CBM)は、人間の理解可能な概念を通じて、モデルの振る舞いを開示し、導くための原則的な方法を提供する。
本稿では,これらのバイアスに無害でありながら事前学習モデルを活用するために設計された新しいフレームワークを提案する。
提案手法を複数のデータセット上で評価し,その解釈可能性を維持しつつ,素粒子相関によるモデル依存の低減効果を示した。
論文 参考訳(メタデータ) (2024-07-12T03:07:28Z) - SynthTree: Co-supervised Local Model Synthesis for Explainable Prediction [15.832975722301011]
本稿では,最小限の精度で説明可能性を向上させる手法を提案する。
我々は,AI技術を利用してノードを推定する新しい手法を開発した。
我々の研究は、統計的方法論が説明可能なAIを前進させる上で重要な役割を担っている。
論文 参考訳(メタデータ) (2024-06-16T14:43:01Z) - Distribution-consistency Structural Causal Models [6.276417011421679]
我々は,新しいテクスト分布-一貫性仮定を導入し,それに合わせて分布-一貫性構造因果モデル(DiscoSCM)を提案する。
モデルキャパシティの強化を具体化するために,DiscoSCM単独で実用的重要性を有する新たな因果パラメータ,一貫性のテキスト化(textitthe probability of consistency)を導入する。
論文 参考訳(メタデータ) (2024-01-29T06:46:15Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - Attitudes and Latent Class Choice Models using Machine learning [0.0]
LCCM (Latent Class Choice Models) の仕様において, 位置インジケータを効率的に組み込む手法を提案する。
この定式化は、位置指標と決定選択との関係を探索する能力において構造方程式を克服する。
我々は,デンマークのコペンハーゲンから,カーシェアリング(Car-Sharing, CS)サービスサブスクリプションの選択を推定するためのフレームワークをテストした。
論文 参考訳(メタデータ) (2023-02-20T10:03:01Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Mixed Effects Neural ODE: A Variational Approximation for Analyzing the
Dynamics of Panel Data [50.23363975709122]
パネルデータ解析に(固定・ランダムな)混合効果を取り入れたME-NODEという確率モデルを提案する。
我々は、Wong-Zakai定理によって提供されるSDEの滑らかな近似を用いて、我々のモデルを導出できることを示す。
次に、ME-NODEのためのエビデンスに基づく下界を導出し、(効率的な)トレーニングアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-02-18T22:41:51Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [55.28436972267793]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。