論文の概要: A consistent and flexible framework for deep matrix factorizations
- arxiv url: http://arxiv.org/abs/2206.10693v1
- Date: Tue, 21 Jun 2022 19:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:44:08.806665
- Title: A consistent and flexible framework for deep matrix factorizations
- Title(参考訳): 深い行列分解のための一貫した柔軟なフレームワーク
- Authors: Pierre De Handschutter, Nicolas Gillis
- Abstract要約: 本稿では,深部MFに対して有意義な2つの損失関数を導入し,対応する最適化問題を解くための汎用フレームワークを提案する。
これらのモデルは、合成データと実データの両方、すなわちハイパースペクトルアンミックスと顔の特徴抽出にうまく適用されている。
- 参考スコア(独自算出の注目度): 17.49766938060264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep matrix factorizations (deep MFs) are recent unsupervised data mining
techniques inspired by constrained low-rank approximations. They aim to extract
complex hierarchies of features within high-dimensional datasets. Most of the
loss functions proposed in the literature to evaluate the quality of deep MF
models and the underlying optimization frameworks are not consistent because
different losses are used at different layers. In this paper, we introduce two
meaningful loss functions for deep MF and present a generic framework to solve
the corresponding optimization problems. We illustrate the effectiveness of
this approach through the integration of various constraints and
regularizations, such as sparsity, nonnegativity and minimum-volume. The models
are successfully applied on both synthetic and real data, namely for
hyperspectral unmixing and extraction of facial features.
- Abstract(参考訳): deep matrix factorizations (deep mfs) は制約付き低ランク近似に触発された最近の教師なしデータマイニング技術である。
彼らは高次元データセット内の機能の複雑な階層を抽出することを目指している。
ディープmfモデルと基盤となる最適化フレームワークの品質を評価するために文献で提案されている損失関数のほとんどは、異なる層で異なる損失が使用されるため一貫性がない。
本稿では,深度MFに対する2つの意味損失関数を導入し,対応する最適化問題を解くための汎用フレームワークを提案する。
本稿では,分散性,非負性,最小体積といった様々な制約と正規化を統合することにより,この手法の有効性を示す。
これらのモデルは、合成データと実データの両方、すなわちハイパースペクトルアンミックスと顔の特徴抽出にうまく適用されている。
関連論文リスト
- Pushing the Limits of Large Language Model Quantization via the Linearity Theorem [71.3332971315821]
本稿では,階層的$ell$再構成誤差と量子化によるモデルパープレキシティ増加との直接的な関係を確立する「線形定理」を提案する。
この知見は,(1)アダマール回転とHIGGSと呼ばれるMSE最適格子を用いた単純なデータフリーLCM量子化法,(2)非一様層ごとの量子化レベルを求める問題に対する最適解の2つの新しい応用を可能にする。
論文 参考訳(メタデータ) (2024-11-26T15:35:44Z) - Towards a Fairer Non-negative Matrix Factorization [6.069820038869034]
非負行列因子化(NMF)がデータ群の表現に偏りをもたらすかを検討する。
異なるグループに対する最大再構成損失を最小化するFairer-NMFという手法を提案する。
論文 参考訳(メタデータ) (2024-11-14T23:34:38Z) - Tailed Low-Rank Matrix Factorization for Similarity Matrix Completion [14.542166904874147]
similarity Completion Matrixは多くの機械学習タスクの中核にある基本的なツールとして機能する。
この問題に対処するために、類似行列理論(SMC)法が提案されているが、それらは複雑である。
提案手法は,PSD特性を解析して推定プロセスを導出し,低ランク解を保証するために非低ランク正規化器を組み込む2つの新しい,スケーラブルで効果的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-29T04:27:23Z) - Exponentially Convergent Algorithms for Supervised Matrix Factorization [2.1485350418225244]
Supervised Factorization (SMF) は、抽出タスクと分類タスクを集約する機械学習手法である。
本稿では,組合わせ係数空間推定における低ランク推定問題としてSMFを'リフト'する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T23:24:02Z) - ECoFLaP: Efficient Coarse-to-Fine Layer-Wise Pruning for Vision-Language
Models [70.45441031021291]
LVLM(Large Vision-Language Models)は、様々なモダリティから豊富な情報を統合することで、世界を包括的に理解することができる。
LVLMは計算/エネルギーの膨大なコストと炭素消費のためにしばしば問題となる。
本稿では,LVLMの2段間粗大な重み付け法であるECoFLaP(Efficient Coarse-to-Fine LayerWise Pruning)を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:34:00Z) - A Novel Maximum-Entropy-Driven Technique for Low-Rank Orthogonal
Nonnegative Matrix Factorization with $\ell_0$-Norm sparsity Constraint [0.0]
データ駆動制御と機械学習では、大きな行列を小さく、低ランクな要素に分解する、という一般的な要件がある。
本稿では,直交非負行列分解(ONMF)問題に対する革新的な解を提案する。
提案手法は,文献と同等あるいは改善された復元誤差を実現する。
論文 参考訳(メタデータ) (2022-10-06T04:30:59Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - Entropy Minimizing Matrix Factorization [102.26446204624885]
NMF(Nonnegative Matrix Factorization)は、広く使用されているデータ分析技術であり、多くの実際のタスクで印象的な結果をもたらしました。
本研究では,上述の問題に対処するために,EMMF (Entropy Minimizing Matrix Factorization framework) を開発した。
通常、外れ値が通常のサンプルよりもはるかに小さいことを考えると、行列分解のために新しいエントロピー損失関数が確立される。
論文 参考訳(メタデータ) (2021-03-24T21:08:43Z) - High Dimensional Level Set Estimation with Bayesian Neural Network [58.684954492439424]
本稿では,ベイズニューラルネットワークを用いた高次元レベル集合推定問題を解く新しい手法を提案する。
各問題に対して対応する理論情報に基づく取得関数を導出してデータポイントをサンプリングする。
合成データセットと実世界データセットの数値実験により,提案手法は既存手法よりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2020-12-17T23:21:53Z) - Deep matrix factorizations [16.33338100088249]
深度行列分解 (deep matrix factorization, ディープMF) は, いくつかの特徴層を抽出するために導入された。
本稿では,総合的な文献レビューを通じて,深部MFの主なモデル,アルゴリズム,応用について述べる。
論文 参考訳(メタデータ) (2020-10-01T13:19:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。