論文の概要: Applying non-negative matrix factorization with covariates to label matrix for classification
- arxiv url: http://arxiv.org/abs/2510.10375v1
- Date: Sun, 12 Oct 2025 00:21:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.911813
- Title: Applying non-negative matrix factorization with covariates to label matrix for classification
- Title(参考訳): 非負行列分解と共変量を用いたラベル行列の分類への応用
- Authors: Kenichi Satoh,
- Abstract要約: テキストNMF-LAB (Non- negative Matrix Factorization for Label Matrix) を提案する。
Tri-NMFフレームワーク内の回帰と分類を統合することで、NMF-LABは現代的な分類タスクに対して、新しく、確率的でスケーラブルなアプローチを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-negative matrix factorization (NMF) is widely used for dimensionality reduction and interpretable analysis, but standard formulations are unsupervised and cannot directly exploit class labels. Existing supervised or semi-supervised extensions usually incorporate labels only via penalties or graph constraints, still requiring an external classifier. We propose \textit{NMF-LAB} (Non-negative Matrix Factorization for Label Matrix), which redefines classification as the inverse problem of non-negative matrix tri-factorization (tri-NMF). Unlike joint NMF methods, which reconstruct both features and labels, NMF-LAB directly factorizes the label matrix $Y$ as the observation, while covariates $A$ are treated as given explanatory variables. This yields a direct probabilistic mapping from covariates to labels, distinguishing our method from label-matrix factorization approaches that mainly model label correlations or impute missing labels. Our inversion offers two key advantages: (i) class-membership probabilities are obtained directly from the factorization without a separate classifier, and (ii) covariates, including kernel-based similarities, can be seamlessly integrated to generalize predictions to unseen samples. In addition, unlabeled data can be encoded as uniform distributions, supporting semi-supervised learning. Experiments on diverse datasets, from small-scale benchmarks to the large-scale MNIST dataset, demonstrate that NMF-LAB achieves competitive predictive accuracy, robustness to noisy or incomplete labels, and scalability to high-dimensional problems, while preserving interpretability. By unifying regression and classification within the tri-NMF framework, NMF-LAB provides a novel, probabilistic, and scalable approach to modern classification tasks.
- Abstract(参考訳): 非負行列分解(NMF)は次元の減少と解釈可能な解析に広く用いられているが、標準定式化は教師なしであり、クラスラベルを直接利用することはできない。
既存の教師付きまたは半教師付き拡張は、通常はペナルティやグラフの制約によってのみラベルを組み込むが、それでも外部の分類器を必要とする。
本稿では,非負行列行列三因子化(tri-NMF)の逆問題として分類を再定義する「textit{NMF-LAB} (Non- negative Matrix Factorization for Label Matrix)」を提案する。
特徴とラベルの両方を再構成する共同NMF法とは異なり、NMF-LABはラベル行列を観測値として$Y$を直接分解し、共変量$A$は与えられた説明変数として扱われる。
これにより、共変量からラベルへの直接確率写像が得られ、この手法はラベル相関をモデル化するラベル行列分解法や、直接欠落ラベルをモデル化する手法と区別される。
私たちの逆転は2つの大きな利点を提供します。
一 別個の分類器を使わずに、因数分解から直接、等級構成確率を得ることができること。
(II) カーネルベースの類似性を含む共変体をシームレスに統合し、予測を未知のサンプルに一般化することができる。
さらに、ラベルなしデータを一様分布として符号化し、半教師付き学習をサポートする。
小規模ベンチマークから大規模MNISTデータセットまで、さまざまなデータセットの実験は、NMF-LABが競合予測精度、ノイズや不完全ラベルに対する堅牢性、高次元問題へのスケーラビリティを実現し、解釈可能性を維持していることを示している。
Tri-NMFフレームワーク内の回帰と分類を統合することで、NMF-LABは現代的な分類タスクに対して、新しく、確率的でスケーラブルなアプローチを提供する。
関連論文リスト
- Robust Orthogonal NMF with Label Propagation for Image Clustering [11.353489417171588]
非負のクラスタリング因子化(artNFMF)は、イメージクラスタリングで広く使われている教師なし学習手法である。
そこで我々は,ノイズ汚損を解決するための (AD) ベースの解法である交互方向法を開発した。
論文 参考訳(メタデータ) (2025-04-30T09:49:55Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Robust Bayesian Nonnegative Matrix Factorization with Implicit
Regularizers [4.913248451323163]
非負行列因数分解(NMF)学習のための暗黙ノルム正規化を用いた確率モデルを導入する。
がんにおける薬物感受性のゲノムを含む実世界のいくつかのデータセットでモデルを評価した。
論文 参考訳(メタデータ) (2022-08-22T04:34:17Z) - Optimizing Diffusion Rate and Label Reliability in a Graph-Based
Semi-supervised Classifier [2.4366811507669124]
Local and Global Consistency (LGC)アルゴリズムは、グラフベースの半教師付き半教師付き(GSSL)分類器の1つである。
ラベル付きインスタンスの自己影響を取り除くことは、どのように有用か、そして、それがアウト・ワン・アウトエラーにどのように関係するかについて議論する。
本研究では,ラベルの信頼性と拡散率を推定する手法を提案する。
論文 参考訳(メタデータ) (2022-01-10T16:58:52Z) - Distribution-Aware Semantics-Oriented Pseudo-label for Imbalanced
Semi-Supervised Learning [80.05441565830726]
本稿では,疑似ラベルの重み付けがモデル性能に悪影響を及ぼすような,不均衡な半教師付き学習に対処する。
本稿では,この観測の動機となるバイアスに対処する,一般的な擬似ラベルフレームワークを提案する。
不均衡SSLのための新しい擬似ラベルフレームワークを、DASO(Distributed-Aware Semantics-Oriented Pseudo-label)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-10T11:58:25Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - Self-supervised Symmetric Nonnegative Matrix Factorization [82.59905231819685]
シンメトリー非負係数行列(SNMF)は、データクラスタリングの強力な方法であることを示した。
より良いクラスタリング結果を求めるアンサンブルクラスタリングにインスパイアされた,自己監視型SNMF(S$3$NMF)を提案する。
SNMFのコード特性に対する感度を、追加情報に頼らずに活用しています。
論文 参考訳(メタデータ) (2021-03-02T12:47:40Z) - Provably End-to-end Label-Noise Learning without Anchor Points [118.97592870124937]
本稿では,アンカーポイントを使わずにラベルノイズ学習を実現するためのエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
論文 参考訳(メタデータ) (2021-02-04T03:59:37Z) - Multi-Objective Matrix Normalization for Fine-grained Visual Recognition [153.49014114484424]
双線形プールは細粒度視覚認識(FGVC)において大きな成功を収める
近年,行列パワー正規化は双線形特徴量において2次情報を安定化させることができることが示されている。
両線形表現を同時に正規化できる効率的な多目的行列正規化法(MOMN)を提案する。
論文 参考訳(メタデータ) (2020-03-30T08:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。