論文の概要: Continuous Semi-Supervised Nonnegative Matrix Factorization
- arxiv url: http://arxiv.org/abs/2212.09858v1
- Date: Mon, 19 Dec 2022 21:07:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 14:10:08.446528
- Title: Continuous Semi-Supervised Nonnegative Matrix Factorization
- Title(参考訳): 連続半教師付き非負行列分解
- Authors: Michael R. Lindstrom, Xiaofu Ding, Feng Liu, Anand Somayajula, Deanna
Needell
- Abstract要約: 非負行列分解は、教師なしの方法でコーパス内のトピックを自動的に検出するために用いられる。
この因子化を連続応答変数の回帰と組み合わせることができることを示す。
- 参考スコア(独自算出の注目度): 8.303018940526417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Nonnegative matrix factorization can be used to automatically detect topics
within a corpus in an unsupervised fashion. The technique amounts to an
approximation of a nonnegative matrix as the product of two nonnegative
matrices of lower rank. In this paper, we show this factorization can be
combined with regression on a continuous response variable. In practice, the
method performs better than regression done after topics are identified and
retrains interpretability.
- Abstract(参考訳): 非負行列分解は、教師なしの方法でコーパス内のトピックを自動的に検出することができる。
この手法は、下級の2つの非負行列の積としての非負行列の近似に相当する。
本稿では,この因子化を連続応答変数の回帰と組み合わせることができることを示す。
実際には、この方法はトピックを識別した後の回帰よりもパフォーマンスが良く、解釈可能性を再訓練する。
関連論文リスト
- Neural incomplete factorization: learning preconditioners for the conjugate gradient method [2.899792823251184]
我々は、効率的なプレコンディショナーの生成を加速するためのデータ駆動型アプローチを開発する。
一般的に手動のプリコンディショナーをグラフニューラルネットワークの出力に置き換える。
本手法は, 行列の不完全分解を発生させ, 神経不完全分解(NeuralIF)と呼ばれる。
論文 参考訳(メタデータ) (2023-05-25T11:45:46Z) - Memory-Efficient Backpropagation through Large Linear Layers [107.20037639738433]
Transformersのような現代のニューラルネットワークでは、線形層は後方通過時にアクティベーションを保持するために大きなメモリを必要とする。
本研究では,線形層によるバックプロパゲーションを実現するためのメモリ削減手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T13:02:41Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Adversarially-Trained Nonnegative Matrix Factorization [77.34726150561087]
非負行列ファクタリゼーションの逆学習版を検討する。
我々の定式化では、攻撃者は与えられたデータ行列に有界ノルムの任意の行列を追加する。
辞書と係数行列を最適化するために, 逆学習に触発された効率的なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-04-10T13:13:17Z) - Beyond Procrustes: Balancing-Free Gradient Descent for Asymmetric
Low-Rank Matrix Sensing [36.96922859748537]
低ランク行列推定は、科学と工学のさまざまなアプリケーションで中心的な役割を果たします。
既存のアプローチは、2つの行列因子のスケールのバランスをとるために計量正規化項を加えることに頼っている。
本論文では,低ランク行列の線形測定値の少ない値から回復する性能の理論的正当化について述べる。
論文 参考訳(メタデータ) (2021-01-13T15:03:52Z) - Tangent Space Based Alternating Projections for Nonnegative Low Rank
Matrix Approximation [22.96292865984433]
非負の低階行列近似法では、特異値分解が必要なため、固定階行列の多様体への射影は高価である。
本稿では,多様体上の点の接空間を用いて多様体への射影を近似し,計算コストを削減することを提案する。
論文 参考訳(メタデータ) (2020-09-02T05:25:16Z) - Robust Low-rank Matrix Completion via an Alternating Manifold Proximal
Gradient Continuation Method [47.80060761046752]
ロバスト低ランク行列補完(RMC)は、コンピュータビジョン、信号処理、機械学習アプリケーションのために広く研究されている。
この問題は、部分的に観察された行列を低ランク行列とスパース行列の重ね合わせに分解することを目的とした。
RMCに取り組むために広く用いられるアプローチは、低ランク行列の核ノルム(低ランク性を促進するために)とスパース行列のl1ノルム(空間性を促進するために)を最小化する凸定式化を考えることである。
本稿では、近年のローワークの動機付けについて述べる。
論文 参考訳(メタデータ) (2020-08-18T04:46:22Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Dual T: Reducing Estimation Error for Transition Matrix in Label-noise
Learning [157.2709657207203]
遷移行列を推定する既存の方法は、ノイズのあるクラス後部を推定することに大きく依存している。
雑音のクラス後部を直接推定するのを避けるために中間クラスを導入する。
この中間クラスにより、元の遷移行列は2つの容易に推定できる遷移行列の積に分解できる。
論文 参考訳(メタデータ) (2020-06-14T05:48:20Z) - A Sparsity Inducing Nuclear-Norm Estimator (SpINNEr) for Matrix-Variate
Regression in Brain Connectivity Analysis [0.13821857257153802]
医学的応用において、回帰器は多次元配列の形で用いられることが多い。
正規化行列回帰という別の手法を提案する。
SpINNErは、ヒト脳におけるHIV関連結果と機能的接続との関係を調べるために用いられる。
論文 参考訳(メタデータ) (2020-01-30T20:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。