論文の概要: MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation
- arxiv url: http://arxiv.org/abs/2603.09601v1
- Date: Tue, 10 Mar 2026 12:46:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.314684
- Title: MM-algorithms for traditional and convex NMF with Tweedie and Negative Binomial cost functions and empirical evaluation
- Title(参考訳): Tweedie と Negative Binomial Cost Function を用いた従来の凸 NMF に対するMM-algorithms と実証評価
- Authors: Elisabeth Sommer James, Asger Hobolth, Marta Pelizzola,
- Abstract要約: 非負行列分解(NMF)は教師なし学習と特徴抽出に広く用いられているツールである。
従来のNMFと凸NMFの双方に対して、分布の広いクラスで統一的なフレームワークを開発する。
我々は、複数の凸NMFモデルの最初の実装を含む、すべての考慮されたモデルの統一的な実装を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Non-negative matrix factorisation (NMF) is a widely used tool for unsupervised learning and feature extraction, with applications ranging from genomics to text analysis and signal processing. Standard formulations of NMF are typically derived under Gaussian or Poisson noise assumptions, which may be inadequate for data exhibiting overdispersion or other complex mean-variance relationships. In this paper, we develop a unified framework for both traditional and convex NMF under a broad class of distributional assumptions, including Negative Binomial and Tweedie models, where the connection between the Tweedie and the $β$-divergence is also highlighted. Using a Majorize-Minimisation approach, we derive multiplicative update rules for all considered models, and novel updates for convex NMF with Poisson and Negative Binomial cost functions. We provide a unified implementation of all considered models, including the first implementations of several convex NMF models. Empirical evaluations on mutational and word count data demonstrate that the choice of noise model critically affects model fit and feature recovery, and that convex NMF can provide an efficient and robust alternative to traditional NMF in scenarios where the number of classes is large. The code for our proposed updates is available in the R package nmfgenr and can be found at https://github.com/MartaPelizzola/nmfgenr.
- Abstract(参考訳): 非負行列分解(NMF)は、ゲノム学からテキスト分析、信号処理に至るまで、教師なし学習や特徴抽出に広く用いられているツールである。
NMFの標準定式化は一般的にガウスノイズやポアソンノイズの仮定に基づいて導かれるが、これは過分散や他の複雑な平均分散関係を示すデータには不十分である。
本稿では,Tweedie と$β$-divergence の接続が強調される負の双項モデルや Tweedie モデルを含む,分布的仮定の幅広いクラスの下で,従来のNMF と凸 NMF の統一的なフレームワークを開発する。
大規模最小化手法を用いて、すべての検討されたモデルに対する乗法的更新ルールと、Poisson と Negative Binomial のコスト関数による凸 NMF の新しい更新を導出する。
我々は、複数の凸NMFモデルの最初の実装を含む、すべての考慮されたモデルの統一的な実装を提供する。
突然変異および単語数データに関する実証的な評価は、ノイズモデルの選択がモデル適合性と特徴回復に重大な影響を及ぼし、また、クラス数が大きい場合において、凸NMFは従来のNMFに代わる効率的で堅牢な代替手段を提供することを示した。
提案されたアップデートのコードはRパッケージのnmfgenrで利用可能であり、https://github.com/MartaPelizzola/nmfgenr.comで見ることができる。
関連論文リスト
- Nonnegative Matrix Factorization through Cone Collapse [0.9453554184019107]
完全非負のオルサントから始まり、データによって生成される最小のコーンに向けて反復的に縮小するアルゴリズムであるコーン・コラプスを提案する。
CC-NMFは16のベンチマークで遺伝子表現、テキスト、画像データセットをベンチマークし、強いNMFベースラインを一貫して一致または上回っている。
これらの結果から,データコーンを明示的に回収することで,NMFに基づくクラスタリング法と実験的に強いクラスタリング法の両方が得られることが示された。
論文 参考訳(メタデータ) (2025-11-27T13:22:37Z) - A Provably-Correct and Robust Convex Model for Smooth Separable NMF [16.819543808413716]
非負行列分解(NMF)は非負データに対する線形次元法であり、ハイパースペクトルアンミックスやトピックモデリングなどの応用がある。
特に分離性は、NMF の基底ベクトルが入力行列のいくつかの列に等しいことを仮定する。
SSNMFの凸モデルを提案し,ノイズがあっても追従因子を確実に回復することを示す。
論文 参考訳(メタデータ) (2025-11-10T13:54:27Z) - Nonnegative matrix factorization and the principle of the common cause [0.0]
共通原因の原理(英: principle of the common cause, PCC)は確率的因果関係における基本的な方法論的アプローチである。
2つの依存確率変数の結合確率に対する独立混合モデルを求める。
我々は,PCCがNMFの有効ランクを頑健に推定する予測可能性ツールを提供することを示した。
また、NMFがデータデノーミングにどのように使われるかを示す。
論文 参考訳(メタデータ) (2025-09-03T19:02:39Z) - Steering Masked Discrete Diffusion Models via Discrete Denoising Posterior Prediction [88.65168366064061]
本稿では,確率論的推論の課題として,事前学習したMDMを操る作業を行う新しいフレームワークであるDDPPを紹介する。
私たちのフレームワークは、3つの新しい目標のファミリーにつながります。
Wet-lab Validation(ウェット・ラブ・バリデーション)を用いて,報酬最適化タンパク質配列の過渡的発現を観察する。
論文 参考訳(メタデータ) (2024-10-10T17:18:30Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Flexible and Hierarchical Prior for Bayesian Nonnegative Matrix
Factorization [4.913248451323163]
非負行列分解(NMF)を学習するための確率モデルを導入する。
サイズや寸法の異なるMovieLens 100KやMovieLens 1Mなどの実世界のデータセットでモデルを評価した。
論文 参考訳(メタデータ) (2022-05-23T03:51:55Z) - Log-based Sparse Nonnegative Matrix Factorization for Data
Representation [55.72494900138061]
非負の行列因子化(NMF)は、非負のデータを部品ベースの表現で表すことの有効性から、近年広く研究されている。
そこで本研究では,係数行列に対数ノルムを課した新しいNMF法を提案する。
提案手法のロバスト性を高めるために,$ell_2,log$-(pseudo) ノルムを新たに提案した。
論文 参考訳(メタデータ) (2022-04-22T11:38:10Z) - Entropy Minimizing Matrix Factorization [102.26446204624885]
NMF(Nonnegative Matrix Factorization)は、広く使用されているデータ分析技術であり、多くの実際のタスクで印象的な結果をもたらしました。
本研究では,上述の問題に対処するために,EMMF (Entropy Minimizing Matrix Factorization framework) を開発した。
通常、外れ値が通常のサンプルよりもはるかに小さいことを考えると、行列分解のために新しいエントロピー損失関数が確立される。
論文 参考訳(メタデータ) (2021-03-24T21:08:43Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。