論文の概要: A First Step Towards Distribution Invariant Regression Metrics
- arxiv url: http://arxiv.org/abs/2009.05176v1
- Date: Thu, 10 Sep 2020 23:40:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 03:09:38.235378
- Title: A First Step Towards Distribution Invariant Regression Metrics
- Title(参考訳): 分布不変回帰計量への第一歩
- Authors: Mario Michael Krell and Bilal Wehbe
- Abstract要約: 分類において、F-Measure や Accuracy のようなパフォーマンス指標は、クラス分布に大きく依存していると繰り返し述べられている。
ロボットアプリケーションにおけるオドメトリパラメータの分布は,例えば,異なるセッション間で大きく異なる可能性がある。
ここでは、すべての関数値に対して等しく機能する回帰アルゴリズムや、高速のような特定の境界領域にフォーカスする回帰アルゴリズムが必要です。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Regression evaluation has been performed for decades. Some metrics have been
identified to be robust against shifting and scaling of the data but
considering the different distributions of data is much more difficult to
address (imbalance problem) even though it largely impacts the comparability
between evaluations on different datasets. In classification, it has been
stated repeatedly that performance metrics like the F-Measure and Accuracy are
highly dependent on the class distribution and that comparisons between
different datasets with different distributions are impossible. We show that
the same problem exists in regression. The distribution of odometry parameters
in robotic applications can for example largely vary between different
recording sessions. Here, we need regression algorithms that either perform
equally well for all function values, or that focus on certain boundary regions
like high speed. This has to be reflected in the evaluation metric. We propose
the modification of established regression metrics by weighting with the
inverse distribution of function values $Y$ or the samples $X$ using an
automatically tuned Gaussian kernel density estimator. We show on synthetic and
robotic data in reproducible experiments that classical metrics behave wrongly,
whereas our new metrics are less sensitive to changing distributions,
especially when correcting by the marginal distribution in $X$. Our new
evaluation concept enables the comparison of results between different datasets
with different distributions. Furthermore, it can reveal overfitting of a
regression algorithm to overrepresented target values. As an outcome,
non-overfitting regression algorithms will be more likely chosen due to our
corrected metrics.
- Abstract(参考訳): 回帰評価は数十年にわたって行われてきた。
いくつかのメトリクスはデータのシフトやスケーリングに対して堅牢であると認識されているが、データの異なる分布を考慮すると、異なるデータセットに対する評価間の互換性に大きな影響を及ぼすにもかかわらず、(不均衡の問題)対処がはるかに困難である。
分類では、f測定値や精度などのパフォーマンス指標はクラス分布に大きく依存しており、異なるデータセットと異なる分布の比較は不可能である、と繰り返し述べられている。
回帰にも同じ問題があることが分かる。
ロボットアプリケーションにおける計測パラメータの分布は、例えば、異なる記録セッション間で大きく異なる。
ここでは、すべての関数値に対して等しく機能する回帰アルゴリズムや、高速のような特定の境界領域にフォーカスする回帰アルゴリズムが必要です。
これは評価基準に反映されなければならない。
自動調整されたガウス核密度推定器を用いて,関数値の逆分布を$Y$あるいはサンプル$X$と重み付けすることで,確立された回帰指標の修正を提案する。
従来のメトリクスが正しく振る舞うという再現可能な実験では、合成データやロボットデータについて示していますが、私たちの新しいメトリクスは分布の変化に対する感受性が低いのです。
新しい評価概念により、異なるデータセットと異なるディストリビューション間の結果の比較が可能となる。
さらに、過剰表現されたターゲット値に対する回帰アルゴリズムの過剰適合を明らかにすることができる。
その結果、修正されたメトリクスのため、非適合の回帰アルゴリズムがより選択される可能性が高い。
関連論文リスト
- Towards Self-Supervised Covariance Estimation in Deep Heteroscedastic Regression [102.24287051757469]
深部異方性回帰における自己教師付き共分散推定について検討する。
正規分布の間の2-ワッサーシュタイン距離の上界を導出する。
幅広い合成データセットと実データセットに対する実験により、提案された2-ワッサーシュタインと擬似ラベルアノテーションが結合した結果、計算的に安価で正確な深部ヘテロ代用回帰が導かれることが示された。
論文 参考訳(メタデータ) (2025-02-14T22:37:11Z) - What should an AI assessor optimise for? [57.96463917842822]
AIアセスタ(AI Assessmentor)は、他のAIシステムの指標(損失値など)を予測する、外的、理想的には不適切なシステムである。
ここでは、問題に対処する: 常にターゲットメトリックのアセスメントをトレーニングするのが最適か?
本研究では, モノトニック写像と非モノトニック写像を用いた回帰損失と分類スコアについて実験的に検討した。
論文 参考訳(メタデータ) (2025-02-01T08:41:57Z) - Semiparametric conformal prediction [79.6147286161434]
リスクに敏感なアプリケーションは、複数の、潜在的に相関したターゲット変数に対して、よく校正された予測セットを必要とする。
スコアをランダムなベクトルとして扱い、それらの連接関係構造を考慮した予測セットを構築することを目的とする。
実世界のレグレッション問題に対して,所望のカバレッジと競争効率について報告する。
論文 参考訳(メタデータ) (2024-11-04T14:29:02Z) - Uncertainty Voting Ensemble for Imbalanced Deep Regression [20.176217123752465]
本稿では,不均衡なデータから学習するUVOTEを紹介する。
従来の回帰損失を負の対数類似度に置き換え、サンプルワイドのアレタリックな不確実性も予測する。
UVOTEは先行技術より一貫して優れており、同時に精度のよい不確実性評価が得られている。
論文 参考訳(メタデータ) (2023-05-24T14:12:21Z) - Pseudo-Labeling for Kernel Ridge Regression under Covariate Shift [1.3597551064547502]
対象分布に対する平均2乗誤差が小さい回帰関数を,ラベルなしデータと異なる特徴分布を持つラベル付きデータに基づいて学習する。
ラベル付きデータを2つのサブセットに分割し、カーネルリッジの回帰処理を行い、候補モデルの集合と計算モデルを得る。
モデル選択に擬似ラベルを用いることで性能を著しく損なうことはないことが判明した。
論文 参考訳(メタデータ) (2023-02-20T18:46:12Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - RIFLE: Imputation and Robust Inference from Low Order Marginals [10.082738539201804]
我々は,不備なデータの存在下での回帰と分類のための統計的推論フレームワークを開発する。
我々のフレームワークであるRIFLEは、基礎となるデータ分布の低次モーメントを対応する信頼区間で推定し、分布的に堅牢なモデルを学ぶ。
実験の結果,RIFLEは,欠落値の割合が高い場合や,データポイント数が比較的小さい場合には,他のベンチマークアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-09-01T23:17:30Z) - Flexible Model Aggregation for Quantile Regression [92.63075261170302]
量子回帰は、予測の不確実性を定量化する必要性によって動機付けられた統計学習の基本的な問題である。
条件付き量子モデルの任意の数を集約する手法について検討する。
この論文で検討するモデルはすべて、現代のディープラーニングツールキットに適合します。
論文 参考訳(メタデータ) (2021-02-26T23:21:16Z) - Delving into Deep Imbalanced Regression [41.90687097747504]
我々は,不均衡回帰(dir)を,連続目標を持つ不均衡データからの学習として定義する。
分類空間と連続ラベル空間の差を動機として,ラベルと特徴の分布平滑化を提案する。
我々の研究は、実際の不均衡回帰問題に対するベンチマークとテクニックのギャップを埋める。
論文 参考訳(メタデータ) (2021-02-18T18:56:03Z) - Nonlinear Distribution Regression for Remote Sensing Applications [6.664736150040092]
多くのリモートセンシングアプリケーションでは、観察から関心のある変数やパラメータを推定したい。
ニューラルネットワーク、ランダムフォレスト、ガウス過程などの標準アルゴリズムは、これら2つに関連して容易に利用可能である。
本稿では, グループ化されたデータの統計を仮定することなく, 従来の問題を解く非線形(カーネルベース)な分散回帰法を提案する。
論文 参考訳(メタデータ) (2020-12-07T22:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。