論文の概要: Marginally calibrated response distributions for end-to-end learning in
autonomous driving
- arxiv url: http://arxiv.org/abs/2110.01050v1
- Date: Sun, 3 Oct 2021 17:19:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-06 04:37:06.475552
- Title: Marginally calibrated response distributions for end-to-end learning in
autonomous driving
- Title(参考訳): 自律運転におけるエンド・ツー・エンド学習のための周縁調整応答分布
- Authors: Clara Hoffmann and Nadja Klein
- Abstract要約: 自動運転のためのエンド・ツー・エンドの学習者は、先進的な通りのイメージから直接、瞬間的な操舵角を予測するディープニューラルネットワークである。
しかし、エンド・ツー・エンドの学習者は一般的に、分布予測がトレーニング時間の大幅な増加と関連しているため、ポイント予測のみを提供する。
Klein, Nott, Smith (2021) の暗黙的コプラ・ニューラル・リニア・モデルに対する効率よく, スケーラブルな近似推定を行い, エンドツーエンド学習者の予測の不確かさを定量化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: End-to-end learners for autonomous driving are deep neural networks that
predict the instantaneous steering angle directly from images of the
ahead-lying street. These learners must provide reliable uncertainty estimates
for their predictions in order to meet safety requirements and initiate a
switch to manual control in areas of high uncertainty. Yet end-to-end learners
typically only deliver point predictions, since distributional predictions are
associated with large increases in training time or additional computational
resources during prediction. To address this shortcoming we investigate
efficient and scalable approximate inference for the implicit copula neural
linear model of Klein, Nott and Smith (2021) in order to quantify uncertainty
for the predictions of end-to-end learners. The result are densities for the
steering angle that are marginally calibrated, i.e.~the average of the
estimated densities equals the empirical distribution of steering angles. To
ensure the scalability to large $n$ regimes, we develop efficient estimation
based on variational inference as a fast alternative to computationally
intensive, exact inference via Hamiltonian Monte Carlo. We demonstrate the
accuracy and speed of the variational approach in comparison to Hamiltonian
Monte Carlo on two end-to-end learners trained for highway driving using the
comma2k19 data set. The implicit copula neural linear model delivers accurate
calibration, high-quality prediction intervals and allows to identify
overconfident learners. Our approach also contributes to the explainability of
black-box end-to-end learners, since predictive densities can be used to
understand which steering actions the end-to-end learner sees as valid.
- Abstract(参考訳): エンド・ツー・エンドの自動運転学習者は、先行する道路の画像から瞬時に操舵角度を予測するディープニューラルネットワークである。
これらの学習者は、安全要件を満たし、高い不確実性のある領域における手動制御への切り替えを開始するために、予測に対する確実な不確実性推定を提供する必要がある。
しかし、エンド・ツー・エンド学習者は、分布予測は、予測中にトレーニング時間や追加の計算リソースの増加と関連しているため、ポイント予測のみを提供する。
この欠点に対処するために,klein,nott,smith (2021) の暗黙のコプラ神経線形モデルに対する効率的かつスケーラブルな近似推論を行い,エンド・ツー・エンド学習者の予測の不確かさを定量化する。
その結果, ステアリング角度の平均値は, ステアリング角度の平均値と, ステアリング角度の平均値に等しいことがわかった。
大きな$n$レジームへのスケーラビリティを確保するため、ハミルトニアンモンテカルロによる計算集約的正確な推論の代替として、変分推論に基づく効率的な推定法を開発した。
comma2k19データセットを用いて高速道路走行訓練を行った2人のエンド・ツー・エンド学習者を対象に,変分アプローチの精度と速度をハミルトニアンモンテカルロと比較した。
暗黙のコプラ神経線形モデルは正確な校正と高品質の予測間隔を提供し、自信過剰な学習者を特定することができる。
提案手法は,エンドツーエンド学習者がどのステアリング動作を有効とみなすかを理解するために,予測密度を用いることで,ブラックボックスのエンド・ツー・エンド学習者の説明可能性にも寄与する。
関連論文リスト
- EANet: Expert Attention Network for Online Trajectory Prediction [5.600280639034753]
Expert Attention Networkは、軌道予測のための完全なオンライン学習フレームワークである。
我々は,ネットワーク層の深さの異なる重みを調整し,勾配問題によるモデル更新が遅いことを回避し,専門家の注意を喚起する。
さらに,シナリオ変化に敏感な短期動作トレンドカーネル関数を提案する。
論文 参考訳(メタデータ) (2023-09-11T07:09:40Z) - Learning Sample Difficulty from Pre-trained Models for Reliable
Prediction [55.77136037458667]
本稿では,大規模事前学習モデルを用いて,サンプル難易度を考慮したエントロピー正規化による下流モデルトレーニングを指導する。
我々は、挑戦的なベンチマークで精度と不確実性の校正を同時に改善する。
論文 参考訳(メタデータ) (2023-04-20T07:29:23Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Conformal inference is (almost) free for neural networks trained with
early stopping [1.2891210250935146]
ホールドアウトデータに基づく早期停止は、ニューラルネットワークの過度な適合を緩和し、予測精度を高めるために設計された一般的な正規化技術である。
本稿では, 早期停止とコンフォメーションキャリブレーションを併用し, 同じ保持データを効率よく再利用する手法を提案する。
論文 参考訳(メタデータ) (2023-01-27T06:43:07Z) - Prediction-Powered Inference [68.97619568620709]
予測を用いた推論は、実験データセットに機械学習システムからの予測を補足した場合に有効な統計的推論を行うためのフレームワークである。
このフレームワークは、手段、量子、線形およびロジスティック回帰係数などの量に対して証明可能な信頼区間を計算するための単純なアルゴリズムを生成する。
予測による推論により、研究者は機械学習を使用して、より有効な、よりデータ効率の高い結論を導き出すことができる。
論文 参考訳(メタデータ) (2023-01-23T18:59:28Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Predicting highway lane-changing maneuvers: A benchmark analysis of
machine and ensemble learning algorithms [0.0]
異なる機械学習とアンサンブル学習の分類手法をルールベースモデルと比較する。
速度の遅い車線から速い車線まで) と折りたたみ式の2種類の車線変更操作を予測した。
もしルールベースのモデルが、特に折りたたみの場合の予測精度に制限を与えているなら、モデリングバイアスを欠いたデータベースのアルゴリズムは、大幅な予測改善を可能にします。
論文 参考訳(メタデータ) (2022-04-20T22:55:59Z) - Is my Driver Observation Model Overconfident? Input-guided Calibration
Networks for Reliable and Interpretable Confidence Estimates [23.449073032842076]
運転観察モデルは完璧な条件下で展開されることは滅多にない。
生のニューラルネットワークベースのアプローチは、予測品質を大幅に過大評価する傾向がある。
本稿では,CARing(Callibrated Action Recognition with Input Guidance)という,ビデオ表現による信頼度向上学習のためのニューラルネットワークを活用した新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-04-10T12:43:58Z) - Reliable Probability Intervals For Classification Using Inductive Venn
Predictors Based on Distance Learning [2.66512000865131]
Inductive Venn Predictors framework を用いて,各予測の正確性に関する確率区間をリアルタイムに計算する。
本稿では,高次元入力を含むアプリケーションにおける情報伝達確率区間を計算するための距離距離距離学習法を提案する。
論文 参考訳(メタデータ) (2021-10-07T00:51:43Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Discriminative Jackknife: Quantifying Uncertainty in Deep Learning via
Higher-Order Influence Functions [121.10450359856242]
我々は、モデル損失関数の影響関数を利用して、予測信頼区間のジャックニフェ(または、アウト・ワン・アウト)推定器を構築する頻繁な手順を開発する。
1)および(2)を満たすDJは、幅広いディープラーニングモデルに適用可能であり、実装が容易であり、モデルトレーニングに干渉したり、精度を妥協したりすることなく、ポストホックな方法で適用することができる。
論文 参考訳(メタデータ) (2020-06-29T13:36:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。