論文の概要: Corruption-tolerant Algorithms for Generalized Linear Models
- arxiv url: http://arxiv.org/abs/2212.05430v1
- Date: Sun, 11 Dec 2022 07:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 15:26:09.856187
- Title: Corruption-tolerant Algorithms for Generalized Linear Models
- Title(参考訳): 一般線形モデルに対する破壊耐性アルゴリズム
- Authors: Bhaskar P Mukhoty and Debojyoti Dey and Purushottam Kar
- Abstract要約: SVAM(Sequential Variance-Altered MLE)は、汎用線形モデルを学ぶための統一的なフレームワークである。
SVAMは、独立した関心を持つ可能性のある、新しい分散還元技術に基づいている。
- 参考スコア(独自算出の注目度): 4.127284659744835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents SVAM (Sequential Variance-Altered MLE), a unified
framework for learning generalized linear models under adversarial label
corruption in training data. SVAM extends to tasks such as least squares
regression, logistic regression, and gamma regression, whereas many existing
works on learning with label corruptions focus only on least squares
regression. SVAM is based on a novel variance reduction technique that may be
of independent interest and works by iteratively solving weighted MLEs over
variance-altered versions of the GLM objective. SVAM offers provable model
recovery guarantees superior to the state-of-the-art for robust regression even
when a constant fraction of training labels are adversarially corrupted. SVAM
also empirically outperforms several existing problem-specific techniques for
robust regression and classification. Code for SVAM is available at
https://github.com/purushottamkar/svam/
- Abstract(参考訳): 本稿では,SVAM(Sequential Variance-Altered MLE)について述べる。
svamは最小二乗回帰、ロジスティック回帰、ガンマ回帰といったタスクに拡張されるが、ラベル破壊で学習する多くの既存の作業は最小二乗回帰のみに焦点を当てている。
SVAMは、独立した関心を持つ可能性のある新しい分散還元技術に基づいており、GLM目標の分散修飾バージョンよりも重み付きMLEを反復的に解くことで機能する。
SVAMは、一定の数のトレーニングラベルが逆向きに破損しても、堅牢な回帰のために最先端のモデル回復を保証する。
SVAMはまた、堅牢な回帰と分類のための既存の問題固有のテクニックを経験的に上回っている。
SVAMのコードはhttps://github.com/purushottamkar/svam/で入手できる。
関連論文リスト
- EnsIR: An Ensemble Algorithm for Image Restoration via Gaussian Mixture Models [70.60381055741391]
画像復元の課題は、説明された問題に関連し、単一のモデル予測と地道のずれをもたらす。
アンサンブル学習は、複数のベースモデルの予測を組み合わせることで、これらの偏差に対処することを目的としている。
我々は予測候補のアンサンブル重みを推定するために予測(EM)に基づくアルゴリズムを用いる。
我々のアルゴリズムは、モデルに依存しない訓練不要であり、様々なトレーニング済み画像復元モデルのシームレスな統合と強化を可能にする。
論文 参考訳(メタデータ) (2024-10-30T12:16:35Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - A Novel Approach in Solving Stochastic Generalized Linear Regression via
Nonconvex Programming [1.6874375111244329]
本稿では,一般化線形回帰モデルについて,確率制約問題として考察する。
提案アルゴリズムの結果は,通常のロジスティック回帰モデルよりも1~2%以上よい結果を得た。
論文 参考訳(メタデータ) (2024-01-16T16:45:51Z) - Streaming Active Learning for Regression Problems Using Regression via
Classification [12.572218568705376]
本稿では,回帰学習のためのストリーミング能動学習にレグレッション・ウィズ・クラス化フレームワークを用いることを提案する。
レグレッション・ウィズ・クラス化は回帰問題を分類問題に変換し、ストリーミング能動学習法を回帰問題に直接適用できるようにする。
論文 参考訳(メタデータ) (2023-09-02T20:24:24Z) - Theoretical Characterization of the Generalization Performance of
Overfitted Meta-Learning [70.52689048213398]
本稿では,ガウス的特徴を持つ線形回帰モデルの下で,過剰適合型メタラーニングの性能について検討する。
シングルタスク線形回帰には存在しない新しい興味深い性質が見つかる。
本分析は,各訓練課題における基礎的真理のノイズや多様性・変動が大きい場合には,良心過剰がより重要かつ容易に観察できることを示唆する。
論文 参考訳(メタデータ) (2023-04-09T20:36:13Z) - Mutual Information Learned Regressor: an Information-theoretic Viewpoint
of Training Regression Systems [10.314518385506007]
回帰問題を解くための既存の慣習は平均二乗誤差(MSE)最小化アプローチである。
近年,Yiらは相互情報に基づく教師あり学習フレームワークを提案し,ラベルエントロピー正規化を導入した。
本稿では,相互情報に基づく教師あり学習フレームワークにおける回帰について検討する。
論文 参考訳(メタデータ) (2022-11-23T03:43:22Z) - Regression Bugs Are In Your Model! Measuring, Reducing and Analyzing
Regressions In NLP Model Updates [68.09049111171862]
この研究は、NLPモデル更新における回帰エラーの定量化、低減、分析に重点を置いている。
回帰フリーモデル更新を制約付き最適化問題に定式化する。
モデルアンサンブルが回帰を減らす方法を実証的に分析します。
論文 参考訳(メタデータ) (2021-05-07T03:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。