論文の概要: Sparse joint shift in multinomial classification
- arxiv url: http://arxiv.org/abs/2303.16971v3
- Date: Sun, 24 Mar 2024 17:10:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 03:58:21.459195
- Title: Sparse joint shift in multinomial classification
- Title(参考訳): 多分野分類におけるスパースジョイントシフト
- Authors: Dirk Tasche,
- Abstract要約: ラベル観察なしでターゲットデータセットにSJSを適用すると、ラベルの有効な予測とクラスの事前確率の推定が生成される可能性がある。
機能セットから機能セットのより大きなセットへのSJSの伝達に関する新しい結果を示す。
SJSの特性を推定するために提案したアルゴリズムの矛盾を指摘する。
- 参考スコア(独自算出の注目度): 1.3053649021965603
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse joint shift (SJS) was recently proposed as a tractable model for general dataset shift which may cause changes to the marginal distributions of features and labels as well as the posterior probabilities and the class-conditional feature distributions. Fitting SJS for a target dataset without label observations may produce valid predictions of labels and estimates of class prior probabilities. We present new results on the transmission of SJS from sets of features to larger sets of features, a conditional correction formula for the class posterior probabilities under the target distribution, identifiability of SJS, and the relationship between SJS and covariate shift. In addition, we point out inconsistencies in the algorithms which were proposed for estimating the characteristics of SJS, as they could hamper the search for optimal solutions, and suggest potential improvements.
- Abstract(参考訳): スパースジョイントシフト (SJS) は, 一般データセットシフトの抽出可能なモデルとして提案され, 特徴量やラベルの辺縁分布, 後部確率, クラス条件特徴量の変化を引き起こす可能性がある。
ラベル観察なしでターゲットデータセットにSJSを適用すると、ラベルの有効な予測とクラスの事前確率の推定が生成される可能性がある。
本研究では,特徴集合からより大きな特徴集合へのSJSの伝達,目標分布下でのクラス後部確率の条件補正式,SJSの識別可能性,SJSと共変量シフトの関係について述べる。
さらに,SJSの特徴を推定するために提案されたアルゴリズムの矛盾を指摘する。
関連論文リスト
- One-Step Multi-View Clustering Based on Transition Probability [61.841829428397034]
遷移確率に基づくワンステップマルチビュークラスタリング(OSMVC-TP)を導入する。
本手法は,アンカーポイントからカテゴリへの遷移確率を直接学習し,サンプルからカテゴリへの遷移確率を計算する。
異なる視点でラベルの整合性を維持するために、ソフトラベルからなるテンソルにシャッテン p-ノルムの制約を適用する。
論文 参考訳(メタデータ) (2024-03-03T09:43:23Z) - Invariance assumptions for class distribution estimation [1.3053649021965603]
本研究では,データセットシフトによるクラス分布推定の問題について検討する。
トレーニングデータセットでは、機能とクラスラベルの両方が観察され、テストデータセットでは、機能のみが観察される。
論文 参考訳(メタデータ) (2023-11-28T20:57:10Z) - Winning Prize Comes from Losing Tickets: Improve Invariant Learning by
Exploring Variant Parameters for Out-of-Distribution Generalization [76.27711056914168]
Out-of-Distribution (OOD) 一般化は、分散固有の特徴に適合することなく、様々な環境によく適応する堅牢なモデルを学ぶことを目的としている。
LTH(Lottery Ticket hypothesis)に基づく最近の研究は、学習目標を最小化し、タスクに重要なパラメータのいくつかを見つけることでこの問題に対処している。
Invariant Learning (EVIL) における変数探索手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T06:10:57Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Estimating and Explaining Model Performance When Both Covariates and
Labels Shift [36.94826820536239]
両ラベルの結合シフトといくつかの特徴を考慮した新しい分散シフトモデル Sparse Joint Shift (SJS) を提案する。
また、SJSにおける分散シフトを特徴付けるアルゴリズムフレームワークSEESを提案し、ラベルなしで新しいデータ上でのモデルの性能を推定する。
論文 参考訳(メタデータ) (2022-09-18T01:16:16Z) - Factorizable Joint Shift in Multinomial Classification [3.3504365823045035]
本研究は, 原点(訓練)分布, 対象(試験)事前クラス確率, 特徴の目標辺縁分布の観点から, 分解可能な関節シフトの表現を導出する。
本論文の他の結果には、一般データセットシフトと分解可能な関節シフトの下での後方クラス確率の補正公式が含まれる。
論文 参考訳(メタデータ) (2022-07-29T07:21:44Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - When in Doubt: Improving Classification Performance with Alternating
Normalization [57.39356691967766]
分類のための非パラメトリック後処理ステップである交互正規化(CAN)を用いた分類を導入する。
CANは、予測されたクラス確率分布を再調整することで、挑戦的な例の分類精度を向上させる。
多様な分類課題にまたがってその効果を実証的に示す。
論文 参考訳(メタデータ) (2021-09-28T02:55:42Z) - Probabilistic Anchor Assignment with IoU Prediction for Object Detection [9.703212439661097]
オブジェクト検出では、どのアンカーを正または負のサンプルとして割り当てるか、すなわちアンカー代入(アンカー代入)がモデルの性能に大きく影響を与えるコアプロシージャとして明らかにされている。
本稿では,モデルの学習状況に応じて,アンカーを正と負のサンプルに適応的に分離する新しいアンカー代入戦略を提案する。
論文 参考訳(メタデータ) (2020-07-16T04:26:57Z) - Distribution-Based Invariant Deep Networks for Learning Meta-Features [2.179313476241343]
確率分布からの深層学習の最近の進歩は、分布サンプルの分類や回帰をうまく達成し、したがってサンプルの置換の下では不変である。
提案したアーキテクチャはDidaと呼ばれ、普遍近似のNN特性を継承し、そのロバスト性w.r.t. Lipschitz-bounded transformations of the input distributionが確立される。
この論文は、データセットレベルで定義された2つのタスクに対するアプローチのメリットを実証的かつ相対的に実証している。
論文 参考訳(メタデータ) (2020-06-24T13:15:50Z) - CatBoostLSS -- An extension of CatBoost to probabilistic forecasting [91.3755431537592]
本稿では,不可変応答変数の条件分布全体を予測する新しいフレームワークを提案する。
CatBoostLSSは条件平均のみではなくパラメトリック分布のすべてのモーメントをモデル化する。
提案手法の利点を実証するシミュレーション研究と実世界の実例を共に提示する。
論文 参考訳(メタデータ) (2020-01-04T15:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。