論文の概要: Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data
- arxiv url: http://arxiv.org/abs/2109.06565v1
- Date: Tue, 14 Sep 2021 10:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-15 15:32:44.551340
- Title: Variation-Incentive Loss Re-weighting for Regression Analysis on Biased
Data
- Title(参考訳): バイアスデータに基づく回帰分析のための変分集中損失再重み付け
- Authors: Wentai Wu, Ligang He and Weiwei Lin
- Abstract要約: モデルトレーニング中のデータ歪/バイアスに対処することで回帰分析の精度を向上させることを目的としている。
回帰分析のための勾配降下モデルトレーニングを最適化するために,変分集中損失再重み付け法(VILoss)を提案する。
- 参考スコア(独自算出の注目度): 8.115323786541078
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Both classification and regression tasks are susceptible to the biased
distribution of training data. However, existing approaches are focused on the
class-imbalanced learning and cannot be applied to the problems of numerical
regression where the learning targets are continuous values rather than
discrete labels. In this paper, we aim to improve the accuracy of the
regression analysis by addressing the data skewness/bias during model training.
We first introduce two metrics, uniqueness and abnormality, to reflect the
localized data distribution from the perspectives of their feature (i.e.,
input) space and target (i.e., output) space. Combining these two metrics we
propose a Variation-Incentive Loss re-weighting method (VILoss) to optimize the
gradient descent-based model training for regression analysis. We have
conducted comprehensive experiments on both synthetic and real-world data sets.
The results show significant improvement in the model quality (reduction in
error by up to 11.9%) when using VILoss as the loss criterion in training.
- Abstract(参考訳): 分類タスクと回帰タスクは、トレーニングデータのバイアス分布に影響を受けやすい。
しかし、既存のアプローチはクラス不均衡学習に焦点を当てており、学習対象が離散ラベルではなく連続値である数値回帰問題には適用できない。
本稿では,モデルトレーニング中のデータスキューネス/バイアスに対処し,回帰分析の精度を向上させることを目的とする。
まず,特徴(入力)空間と対象(出力)空間の観点から,局所化データ分布を反映する一意性と異常性という2つの指標を導入する。
これら2つの指標を組み合わせることで、回帰分析のための勾配降下に基づくモデルトレーニングを最適化する変分集中損失再重み付け法(VILoss)を提案する。
我々は,合成データと実世界のデータの両方について包括的な実験を行った。
その結果,VILossをトレーニングにおける損失基準として用いた場合,モデル品質(誤差の最大11.9%)が大幅に向上した。
関連論文リスト
- What Do Learning Dynamics Reveal About Generalization in LLM Reasoning? [83.83230167222852]
モデルの一般化動作は,事前記憶列車の精度と呼ばれるトレーニング指標によって効果的に特徴づけられることがわかった。
モデルの学習行動と一般化を結びつけることで、トレーニング戦略に目標とする改善を導くことができる。
論文 参考訳(メタデータ) (2024-11-12T09:52:40Z) - Distilled Datamodel with Reverse Gradient Matching [74.75248610868685]
オフライントレーニングとオンライン評価段階を含む,データ影響評価のための効率的なフレームワークを提案する。
提案手法は, 直接再学習法と比較して, プロセスの大幅な高速化を図りながら, 同等のモデル行動評価を実現する。
論文 参考訳(メタデータ) (2024-04-22T09:16:14Z) - Adaptive Optimization for Prediction with Missing Data [6.800113478497425]
適応線形回帰モデルの中には,命令規則と下流線形回帰モデルを同時に学習するのと等価なものもある。
ランダムにデータの欠落が強くない環境では,本手法はサンプル外精度を2~10%向上させる。
論文 参考訳(メタデータ) (2024-02-02T16:35:51Z) - A Novel Approach in Solving Stochastic Generalized Linear Regression via
Nonconvex Programming [1.6874375111244329]
本稿では,一般化線形回帰モデルについて,確率制約問題として考察する。
提案アルゴリズムの結果は,通常のロジスティック回帰モデルよりも1~2%以上よい結果を得た。
論文 参考訳(メタデータ) (2024-01-16T16:45:51Z) - Out of the Ordinary: Spectrally Adapting Regression for Covariate Shift [12.770658031721435]
本稿では,学習前のニューラル回帰モデルの最後の層の重みを適応させて,異なる分布から得られる入力データを改善する手法を提案する。
本稿では,この軽量なスペクトル適応手法により,合成および実世界のデータセットの分布外性能が向上することを示す。
論文 参考訳(メタデータ) (2023-12-29T04:15:58Z) - TRIAGE: Characterizing and auditing training data for improved
regression [80.11415390605215]
TRIAGEは回帰タスクに適した新しいデータキャラクタリゼーションフレームワークで、広範囲の回帰器と互換性がある。
TRIAGEは、共形予測分布を利用して、モデルに依存しないスコアリング方法、TRIAGEスコアを提供する。
TRIAGEの特徴は一貫性があり、複数の回帰設定においてデータの彫刻/フィルタリングによるパフォーマンス向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-10-29T10:31:59Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Certifying Data-Bias Robustness in Linear Regression [12.00314910031517]
本稿では, 線形回帰モデルが学習データセットのラベルバイアスに対して, ポイントワイズで損なわれているかどうかを検証する手法を提案する。
この問題を個々のテストポイントに対して正確に解く方法を示し、近似的だがよりスケーラブルな方法を提供する。
また、いくつかのデータセット上の特定のバイアス仮定に対して、高いレベルの非腐食性など、バイアス-腐食性のギャップを掘り下げる。
論文 参考訳(メタデータ) (2022-06-07T20:47:07Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z) - A Locally Adaptive Interpretable Regression [7.4267694612331905]
線形回帰は最も解釈可能な予測モデルの一つである。
本稿では,局所適応型解釈型回帰(LoAIR)を導入する。
我々のモデルは、他の最先端のベースラインと同等またはより良い予測性能を達成する。
論文 参考訳(メタデータ) (2020-05-07T09:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。