論文の概要: Towards Error Measures which Influence a Learners Inductive Bias to the
Ground Truth
- arxiv url: http://arxiv.org/abs/2105.01567v1
- Date: Tue, 4 May 2021 15:33:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 13:59:57.473220
- Title: Towards Error Measures which Influence a Learners Inductive Bias to the
Ground Truth
- Title(参考訳): 学習者インダクティブバイアスが地中真実に影響を及ぼす誤り対策に向けて
- Authors: A. I. Parkes, A. J. Sobey and D. A. Hudson
- Abstract要約: 本論文では,スパースデータを用いたシナリオにおける「基底真理」をモデル化する回帰的手法の能力にエラー対策がどう影響するかを検討する。
現在の誤差尺度は役に立たないバイアスを生じさせ、この振る舞いを示さない新しい誤差尺度が導出される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial intelligence is applied in a range of sectors, and is relied upon
for decisions requiring a high level of trust. For regression methods, trust is
increased if they approximate the true input-output relationships and perform
accurately outside the bounds of the training data. But often performance
off-test-set is poor, especially when data is sparse. This is because the
conditional average, which in many scenarios is a good approximation of the
`ground truth', is only modelled with conventional Minkowski-r error measures
when the data set adheres to restrictive assumptions, with many real data sets
violating these. To combat this there are several methods that use prior
knowledge to approximate the `ground truth'. However, prior knowledge is not
always available, and this paper investigates how error measures affect the
ability for a regression method to model the `ground truth' in these scenarios.
Current error measures are shown to create an unhelpful bias and a new error
measure is derived which does not exhibit this behaviour. This is tested on 36
representative data sets with different characteristics, showing that it is
more consistent in determining the `ground truth' and in giving improved
predictions in regions beyond the range of the training data.
- Abstract(参考訳): 人工知能は様々な分野に適用され、高いレベルの信頼を必要とする決定に依存している。
回帰法では、真の入出力関係を近似し、トレーニングデータの境界外で正確に実行すれば信頼度が向上する。
しかし、特にデータが不足している場合、テスト外のパフォーマンスは貧弱であることが多い。
これは、多くのシナリオにおいて「基底真理」のよい近似である条件平均が、データセットが制限的な仮定に従えば、従来のミンコフスキー-r誤差測度でのみモデル化され、多くの実データセットがこれらに違反するからである。
これに対抗するために、'根拠真理'を近似するために事前知識を使用するいくつかの方法がある。
しかし,事前知識が常に利用可能であるとは限らないため,これらのシナリオにおいて回帰法が'根拠真理'をモデル化する能力に誤差尺度がどのように影響するかを検討する。
現在の誤差尺度は役に立たないバイアスを生じさせ、この振る舞いを示さない新しい誤差尺度が導出される。
これは、異なる特徴を持つ36の代表的なデータセット上でテストされ、'接地真理'の決定と、トレーニングデータの範囲を超える領域での予測の改善により一貫性があることを示している。
関連論文リスト
- Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Random features models: a way to study the success of naive imputation [0.0]
これは、欠落したデータを扱うための最初の使い易いテクニックである。
最近の研究は、このバイアスが高次元線形予測器の文脈で低いことを示唆している。
本稿は, 偏見が無視可能であり, 意外なナイーブな計算も極めて低次元で関連している,という直感を裏付けるものである。
論文 参考訳(メタデータ) (2024-02-06T09:37:06Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Conformal prediction for the design problem [72.14982816083297]
機械学習の現実的な展開では、次にテストすべきデータを選択するために予測アルゴリズムを使用します。
このような設定では、トレーニングデータとテストデータの間には、異なるタイプの分散シフトがある。
このような環境で予測の不確実性を定量化する手法を提案する。
論文 参考訳(メタデータ) (2022-02-08T02:59:12Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Don't Discard All the Biased Instances: Investigating a Core Assumption
in Dataset Bias Mitigation Techniques [19.252319300590656]
データセットバイアスを緩和する既存のテクニックは、バイアス付きモデルを利用してバイアス付きインスタンスを識別することが多い。
これらの偏りのあるインスタンスの役割は、メインモデルのトレーニング中に減少し、アウト・オブ・ディストリビューションデータに対するロバスト性を高める。
本稿では,この仮定が一般には成り立たないことを示す。
論文 参考訳(メタデータ) (2021-09-01T10:25:46Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Cross-validation: what does it estimate and how well does it do it? [2.049702429898688]
クロスバリデーションは予測誤差を推定するために広く使われている手法であるが、その振る舞いは複雑であり、完全には理解されていない。
これは、通常の最小二乗に適合する線形モデルの場合ではなく、同じ集団から引き出された他の目に見えない訓練セットに適合するモデルの平均予測誤差を推定するものである。
論文 参考訳(メタデータ) (2021-04-01T17:58:54Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。