論文の概要: On the calibration of underrepresented classes in LiDAR-based semantic
segmentation
- arxiv url: http://arxiv.org/abs/2210.06811v1
- Date: Thu, 13 Oct 2022 07:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:16:45.938597
- Title: On the calibration of underrepresented classes in LiDAR-based semantic
segmentation
- Title(参考訳): LiDARに基づくセマンティックセグメンテーションにおける未表現クラスの校正について
- Authors: Mariella Dreissig and Florian Piewak and Joschka Boedecker
- Abstract要約: この研究は、LiDARに基づくセマンティックセグメンテーションのためのモデルの信頼性性能のクラスワイズ評価に焦点を当てる。
3つのセマンティックセグメンテーションモデルのキャリブレーション能力と異なるアーキテクチャ概念を比較した。
クラスの予測性能とキャリブレーション品質の依存性を識別し,記述することにより,安全クリティカルなアプリケーションに対するモデル選択と改善を容易にすることを目指している。
- 参考スコア(独自算出の注目度): 7.100396757261104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The calibration of deep learning-based perception models plays a crucial role
in their reliability. Our work focuses on a class-wise evaluation of several
model's confidence performance for LiDAR-based semantic segmentation with the
aim of providing insights into the calibration of underrepresented classes.
Those classes often include VRUs and are thus of particular interest for safety
reasons. With the help of a metric based on sparsification curves we compare
the calibration abilities of three semantic segmentation models with different
architectural concepts, each in a in deterministic and a probabilistic version.
By identifying and describing the dependency between the predictive performance
of a class and the respective calibration quality we aim to facilitate the
model selection and refinement for safety-critical applications.
- Abstract(参考訳): 深層学習に基づく知覚モデルの校正は、その信頼性において重要な役割を果たす。
本研究では,lidarに基づくセマンティクスセグメンテーションにおける複数のモデルの信頼度評価をクラス単位で評価し,過小表現されたクラスのキャリブレーションに関する知見を提供することを目的としている。
これらのクラスはVRUを含むことが多く、安全上の理由から特に関心がある。
スパーシフィケーション曲線に基づくメトリクスの助けを借りて、3つの意味セグメンテーションモデルのキャリブレーション能力と異なるアーキテクチャ概念を比較した。
クラスの予測性能と各キャリブレーション品質の依存性を識別し記述することにより,安全クリティカルなアプリケーションのモデル選択と改良を容易にすることを目的とする。
関連論文リスト
- Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - On the Calibration of Large Language Models and Alignment [63.605099174744865]
信頼性キャリブレーションは、ディープモデルの信頼性を高める重要なツールである。
構築プロセス全体を通して、アライメント言語モデルの校正を体系的に検討する。
我々の研究は、人気のあるLCMが十分に校正されているか、トレーニングプロセスがモデルの校正にどのように影響するかに光を当てています。
論文 参考訳(メタデータ) (2023-11-22T08:57:55Z) - On the Calibration of Uncertainty Estimation in LiDAR-based Semantic
Segmentation [7.100396757261104]
本稿では,個々のクラスに対するセグメンテーションモデルの信頼性校正品質を測定する指標を提案する。
また,手書きまたは自動注釈付きデータセットの品質向上のためにラベル問題を自動的に検出する手法の二重利用を提案する。
論文 参考訳(メタデータ) (2023-08-04T10:59:24Z) - Enabling Calibration In The Zero-Shot Inference of Large Vision-Language
Models [58.720142291102135]
プロンプト、データセット、アーキテクチャといった関連する変数のキャリブレーションを測定し、CLIPによるゼロショット推論が誤校正されていることを見つけます。
学習した1つの温度は、推論データセットにまたがって特定のCLIPモデルごとに一般化され、選択が促される。
論文 参考訳(メタデータ) (2023-03-11T17:14:04Z) - Benchmarking the Robustness of LiDAR Semantic Segmentation Models [78.6597530416523]
本稿では,LiDARセマンティックセグメンテーションモデルのロバスト性を,様々な汚職の下で包括的に解析することを目的とする。
本稿では,悪天候,計測ノイズ,デバイス間不一致という3つのグループで16のドメイン外LiDAR破損を特徴とするSemanticKITTI-Cというベンチマークを提案する。
我々は、単純だが効果的な修正によってロバスト性を大幅に向上させるロバストLiDARセグメンテーションモデル(RLSeg)を設計する。
論文 参考訳(メタデータ) (2023-01-03T06:47:31Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - Variable-Based Calibration for Machine Learning Classifiers [11.9995808096481]
モデルのキャリブレーション特性を特徴付けるために,変数ベースのキャリブレーションの概念を導入する。
ほぼ完全なキャリブレーション誤差を持つモデルでは,データの特徴の関数としてかなりの誤校正が期待できることがわかった。
論文 参考訳(メタデータ) (2022-09-30T00:49:31Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - Post-hoc Models for Performance Estimation of Machine Learning Inference [22.977047604404884]
さまざまなシナリオにおいて、推論中に機械学習モデルがどれだけうまく機能するかを推定することが重要である。
性能評価をさまざまなメトリクスやシナリオに体系的に一般化する。
提案したポストホックモデルは標準信頼ベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-10-06T02:20:37Z) - Semi-Supervised Disentanglement of Class-Related and Class-Independent
Factors in VAE [4.533408938245526]
本稿では,データ変動のクラス関連要因とクラス非依存要因を両立できるフレームワークを提案する。
このフレームワークは,データからクラス関連因子を抽出するプロセスを改善するために,潜在空間における注意機構を利用する。
実験の結果,我々のフレームワークは,クラス関連要因とクラス非依存要因を分離し,解釈可能な特徴を学習していることがわかった。
論文 参考訳(メタデータ) (2021-02-01T15:05:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。