論文の概要: A prediction and behavioural analysis of machine learning methods for
modelling travel mode choice
- arxiv url: http://arxiv.org/abs/2301.04404v1
- Date: Wed, 11 Jan 2023 11:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 17:21:32.483015
- Title: A prediction and behavioural analysis of machine learning methods for
modelling travel mode choice
- Title(参考訳): 旅行モード選択のモデル化のための機械学習手法の予測と行動解析
- Authors: Jos\'e \'Angel Mart\'in-Baos, Julio Alberto L\'opez-G\'omez, Luis
Rodriguez-Benitez, Tim Hillel and Ricardo Garc\'ia-R\'odenas
- Abstract要約: 我々は、モデル選択に影響を及ぼす可能性のある重要な要因の観点から、複数のモデリング問題に対して異なるモデリングアプローチを体系的に比較する。
その結果,非凝集性予測性能が最も高いモデルでは,行動指標やアグリゲーションモードのシェアが低下することが示唆された。
MNLモデルは様々な状況において堅牢に機能するが、ML手法はWillingness to Payのような行動指標の推定を改善することができる。
- 参考スコア(独自算出の注目度): 0.5512295869673147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The emergence of a variety of Machine Learning (ML) approaches for travel
mode choice prediction poses an interesting question to transport modellers:
which models should be used for which applications? The answer to this question
goes beyond simple predictive performance, and is instead a balance of many
factors, including behavioural interpretability and explainability,
computational complexity, and data efficiency. There is a growing body of
research which attempts to compare the predictive performance of different ML
classifiers with classical random utility models. However, existing studies
typically analyse only the disaggregate predictive performance, ignoring other
aspects affecting model choice. Furthermore, many studies are affected by
technical limitations, such as the use of inappropriate validation schemes,
incorrect sampling for hierarchical data, lack of external validation, and the
exclusive use of discrete metrics. We address these limitations by conducting a
systematic comparison of different modelling approaches, across multiple
modelling problems, in terms of the key factors likely to affect model choice
(out-of-sample predictive performance, accuracy of predicted market shares,
extraction of behavioural indicators, and computational efficiency). We combine
several real world datasets with synthetic datasets, where the data generation
function is known. The results indicate that the models with the highest
disaggregate predictive performance (namely extreme gradient boosting and
random forests) provide poorer estimates of behavioural indicators and
aggregate mode shares, and are more expensive to estimate, than other models,
including deep neural networks and Multinomial Logit (MNL). It is further
observed that the MNL model performs robustly in a variety of situations,
though ML techniques can improve the estimates of behavioural indices such as
Willingness to Pay.
- Abstract(参考訳): 旅行モード選択予測のためのさまざまな機械学習(ml)アプローチの出現は、トランスポートモデルラーに興味深い疑問をもたらす。
この質問に対する答えは、単純な予測性能に留まらず、振る舞いの解釈可能性や説明可能性、計算複雑性、データ効率など、多くの要因のバランスを取っている。
異なるML分類器の予測性能を古典的ランダムユーティリティモデルと比較しようとする研究団体が増えている。
しかしながら、既存の研究は通常、モデル選択に影響を与える他の側面を無視して、分散した予測性能のみを分析する。
さらに、不適切な検証スキームの使用、階層データの不正確なサンプリング、外部検証の欠如、離散メトリクスの排他的使用など、多くの研究は技術的な制限の影響を受けている。
モデル選択に影響を及ぼす可能性のある重要な要因(サンプル外の予測性能、予測市場シェアの正確さ、行動指標の抽出、計算効率)の観点から、複数のモデリング問題に対して異なるモデリングアプローチを体系的に比較することで、これらの制限に対処する。
複数の実世界データセットと合成データセットを結合し,データ生成関数が知られている。
その結果、最も非凝集性の高い予測性能(すなわち極度の勾配上昇とランダムな森林)を持つモデルでは、行動指標や集約モードのシェアが低く、より深いニューラルネットワークやMNL(Multinomial Logit)を含む他のモデルよりも高く見積もられていることが示唆された。
MNLモデルは様々な状況において堅牢に機能するが、ML手法はWillingness to Payのような行動指標の推定を改善することができる。
関連論文リスト
- Empirical Analysis of Model Selection for Heterogenous Causal Effect
Estimation [28.408998847597882]
因果推論におけるモデル選択の問題,特に2次的治療下での条件平均治療効果(CATE)推定について検討した。
機械学習におけるモデル選択とは異なり、あらゆるデータポイントに対する反現実的な潜在的結果を観察しないため、ここではクロスバリデーションのテクニックを使用することはできない。
論文 参考訳(メタデータ) (2022-11-03T16:26:06Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - A non-asymptotic penalization criterion for model selection in mixture
of experts models [1.491109220586182]
ガウス型局所化moe(glome)回帰モデルを用いて異種データをモデル化する。
このモデルは、統計的推定とモデル選択の問題に関して難しい疑問を提起する。
本稿では,GLoMEモデルの成分数を推定する問題について,最大推定法を用いて検討する。
論文 参考訳(メタデータ) (2021-04-06T16:24:55Z) - Characterizing Fairness Over the Set of Good Models Under Selective
Labels [69.64662540443162]
同様の性能を実現するモデルセットに対して,予測公正性を特徴付けるフレームワークを開発する。
到達可能なグループレベルの予測格差の範囲を計算するためのトラクタブルアルゴリズムを提供します。
選択ラベル付きデータの実証的な課題に対処するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2021-01-02T02:11:37Z) - On Statistical Efficiency in Learning [37.08000833961712]
モデルフィッティングとモデル複雑性のバランスをとるためのモデル選択の課題に対処する。
モデルの複雑さを順次拡大し、選択安定性を高め、コストを削減するオンラインアルゴリズムを提案します。
実験の結果, 提案手法は予測能力が高く, 計算コストが比較的低いことがわかった。
論文 参考訳(メタデータ) (2020-12-24T16:08:29Z) - Models, Pixels, and Rewards: Evaluating Design Trade-offs in Visual
Model-Based Reinforcement Learning [109.74041512359476]
視覚的MBRLアルゴリズムにおける予測モデルの設計決定について検討する。
潜在空間の使用など、しばしば重要と見なされる設計上の決定は、タスクのパフォーマンスにはほとんど影響しないことが分かりました。
我々は,この現象が探索とどのように関係しているか,および標準ベンチマークにおける下位スコーリングモデルのいくつかが,同じトレーニングデータでトレーニングされた場合のベストパフォーマンスモデルと同等の性能を発揮するかを示す。
論文 参考訳(メタデータ) (2020-12-08T18:03:21Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - A Causal Lens for Peeking into Black Box Predictive Models: Predictive
Model Interpretation via Causal Attribution [3.3758186776249928]
予測モデルがブラックボックスであるような設定でこの問題に対処することを目指している。
我々は、ブラックボックス予測モデルをモデル出力に対する各モデル入力の因果効果を推定する問題と比較する。
モデル入力に対するモデル出力に対する責任の因果関係が、予測モデルを解釈し、その予測を説明するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-01T23:20:57Z) - Supervised Autoencoders Learn Robust Joint Factor Models of Neural
Activity [2.8402080392117752]
神経科学の応用は、行動結果とともに異なる領域の脳活動に対応する高次元予測因子を収集する。
予測因子と結果の結合因子モデルは自然であるが、これらのモデルの最大推定値は、モデルが不特定である場合に実際に苦労することがある。
本稿では,教師付きオートエンコーダに基づく代替推論手法を提案する。潜在因子に確率分布を配置するのではなく,高次元予測器の未知関数として定義する。
論文 参考訳(メタデータ) (2020-04-10T19:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。