論文の概要: Measuring the Confidence of Traffic Forecasting Models: Techniques,
Experimental Comparison and Guidelines towards Their Actionability
- arxiv url: http://arxiv.org/abs/2210.16049v1
- Date: Fri, 28 Oct 2022 10:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:03:57.192621
- Title: Measuring the Confidence of Traffic Forecasting Models: Techniques,
Experimental Comparison and Guidelines towards Their Actionability
- Title(参考訳): 交通予測モデルの信頼性の測定:その動作性に関する技術・実験比較・ガイドライン
- Authors: Ibai La\~na, Ignacio (I\~naki) Olabarrieta, Javier Del Ser
- Abstract要約: 不確実性推定は、予測結果に対するモデルの信頼性に関する強化された情報を提供する。
機械学習モデルで測定できるさまざまなタイプの不確実性に関して、微妙なコンセンサスがあります。
この研究は、文献で利用可能なさまざまな技術と不確実性のメトリクスをレビューすることによって、この研究の欠如をカバーすることを目的としている。
- 参考スコア(独自算出の注目度): 7.489793155793319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The estimation of the amount of uncertainty featured by predictive machine
learning models has acquired a great momentum in recent years. Uncertainty
estimation provides the user with augmented information about the model's
confidence in its predicted outcome. Despite the inherent utility of this
information for the trustworthiness of the user, there is a thin consensus
around the different types of uncertainty that one can gauge in machine
learning models and the suitability of different techniques that can be used to
quantify the uncertainty of a specific model. This subject is mostly non
existent within the traffic modeling domain, even though the measurement of the
confidence associated to traffic forecasts can favor significantly their
actionability in practical traffic management systems. This work aims to cover
this lack of research by reviewing different techniques and metrics of
uncertainty available in the literature, and by critically discussing how
confidence levels computed for traffic forecasting models can be helpful for
researchers and practitioners working in this research area. To shed light with
empirical evidence, this critical discussion is further informed by
experimental results produced by different uncertainty estimation techniques
over real traffic data collected in Madrid (Spain), rendering a general
overview of the benefits and caveats of every technique, how they can be
compared to each other, and how the measured uncertainty decreases depending on
the amount, quality and diversity of data used to produce the forecasts.
- Abstract(参考訳): 近年、予測機械学習モデルに特徴付けられる不確実性量の推定が大きな勢いを増している。
不確実性推定は、モデルが予測した結果に対する信頼性を高める情報を提供する。
ユーザの信頼性に対するこの情報の本質的な有用性にもかかわらず、機械学習モデルで測定できるさまざまなタイプの不確実性や、特定のモデルの不確実性を定量化するために使用できるさまざまなテクニックの適合性については、微妙なコンセンサスがある。
交通予測に関する信頼度の測定は,現実的な交通管理システムにおいて,その行動可能性を大幅に向上させることができるにもかかわらず,交通モデリング領域内にはほとんど存在しない。
この研究は、文献で利用可能なさまざまな技術や不確実性の指標をレビューし、交通予測モデルで計算された信頼度が、この研究領域で働く研究者や実践者にとってどのように役立つかを批判的に議論することで、この研究の欠如をカバーすることを目的としている。
この批判的議論は、マドリード(スペイン)で収集された実交通データに対して異なる不確実性推定手法によって得られた実験結果によってさらに示唆され、各手法の利点と欠点の概観、それらの比較方法、測定された不確実性が予測の作成に使用されるデータの量、品質、多様性に応じてどのように減少するかが示される。
関連論文リスト
- Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Measuring and Modeling Uncertainty Degree for Monocular Depth Estimation [50.920911532133154]
単分子深度推定モデル(MDE)の本質的な不適切さと順序感性は、不確かさの程度を推定する上で大きな課題となる。
本稿では,MDEモデルの不確かさを固有確率分布の観点からモデル化する。
新たなトレーニング正規化用語を導入することで、驚くほど単純な構成で、余分なモジュールや複数の推論を必要とせずに、最先端の信頼性で不確実性を推定できる。
論文 参考訳(メタデータ) (2023-07-19T12:11:15Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Architectural patterns for handling runtime uncertainty of data-driven
models in safety-critical perception [1.7616042687330642]
不確実性推定に対処するためのアーキテクチャパターンを新たに提案する。
安全性と性能向上に関して,4つのパターンを質的,定量的に評価した。
筆者らは,運転状況の文脈情報を考慮することで,運転状況の固有のリスクに応じて,多かれ少なかれ不確実性を受け入れることができると結論付けた。
論文 参考訳(メタデータ) (2022-06-14T13:31:36Z) - How certain are your uncertainties? [0.3655021726150368]
ディープラーニング手法の出力の不確実性の尺度は、いくつかの点で有用である。
本研究では、これらの不確実性の測定の安定性について、大きさと空間パターンの両方の観点から検討する。
論文 参考訳(メタデータ) (2022-03-01T05:25:02Z) - Probabilistic Deep Learning to Quantify Uncertainty in Air Quality
Forecasting [5.007231239800297]
この研究は、空気質予測の現実的な設定における不確実性定量化の最先端技術を適用した。
本稿では,経験的性能,信頼度推定の信頼性,実用性に基づいて,トレーニング確率モデルを記述し,予測の不確実性を評価する。
本実験は,データ駆動空気質予測の不確かさの定量化において,提案モデルが従来よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-12-05T17:01:18Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。