論文の概要: A consistent and flexible framework for deep matrix factorizations
- arxiv url: http://arxiv.org/abs/2206.10693v1
- Date: Tue, 21 Jun 2022 19:20:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 14:44:08.806665
- Title: A consistent and flexible framework for deep matrix factorizations
- Title(参考訳): 深い行列分解のための一貫した柔軟なフレームワーク
- Authors: Pierre De Handschutter, Nicolas Gillis
- Abstract要約: 本稿では,深部MFに対して有意義な2つの損失関数を導入し,対応する最適化問題を解くための汎用フレームワークを提案する。
これらのモデルは、合成データと実データの両方、すなわちハイパースペクトルアンミックスと顔の特徴抽出にうまく適用されている。
- 参考スコア(独自算出の注目度): 17.49766938060264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep matrix factorizations (deep MFs) are recent unsupervised data mining
techniques inspired by constrained low-rank approximations. They aim to extract
complex hierarchies of features within high-dimensional datasets. Most of the
loss functions proposed in the literature to evaluate the quality of deep MF
models and the underlying optimization frameworks are not consistent because
different losses are used at different layers. In this paper, we introduce two
meaningful loss functions for deep MF and present a generic framework to solve
the corresponding optimization problems. We illustrate the effectiveness of
this approach through the integration of various constraints and
regularizations, such as sparsity, nonnegativity and minimum-volume. The models
are successfully applied on both synthetic and real data, namely for
hyperspectral unmixing and extraction of facial features.
- Abstract(参考訳): deep matrix factorizations (deep mfs) は制約付き低ランク近似に触発された最近の教師なしデータマイニング技術である。
彼らは高次元データセット内の機能の複雑な階層を抽出することを目指している。
ディープmfモデルと基盤となる最適化フレームワークの品質を評価するために文献で提案されている損失関数のほとんどは、異なる層で異なる損失が使用されるため一貫性がない。
本稿では,深度MFに対する2つの意味損失関数を導入し,対応する最適化問題を解くための汎用フレームワークを提案する。
本稿では,分散性,非負性,最小体積といった様々な制約と正規化を統合することにより,この手法の有効性を示す。
これらのモデルは、合成データと実データの両方、すなわちハイパースペクトルアンミックスと顔の特徴抽出にうまく適用されている。
関連論文リスト
- Robust Analysis of Multi-Task Learning on a Complex Vision System [73.65915899030895]
マルチタスク学習(MTL)は過去10年間に広く研究されてきた。
複雑な実世界のシナリオにおけるパフォーマンスについて、まだ深く理解されていない。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - Exponentially Convergent Algorithms for Supervised Matrix Factorization [2.1485350418225244]
Supervised Factorization (SMF) は、抽出タスクと分類タスクを集約する機械学習手法である。
本稿では,組合わせ係数空間推定における低ランク推定問題としてSMFを'リフト'する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-18T23:24:02Z) - ECoFLaP: Efficient Coarse-to-Fine Layer-Wise Pruning for Vision-Language
Models [70.45441031021291]
LVLM(Large Vision-Language Models)は、様々なモダリティから豊富な情報を統合することで、世界を包括的に理解することができる。
LVLMは計算/エネルギーの膨大なコストと炭素消費のためにしばしば問題となる。
本稿では,LVLMの2段間粗大な重み付け法であるECoFLaP(Efficient Coarse-to-Fine LayerWise Pruning)を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:34:00Z) - Layer-wise Linear Mode Connectivity [56.53308504862033]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識を融合させる直感的な方法である。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - MFAI: A Scalable Bayesian Matrix Factorization Approach to Leveraging
Auxiliary Information [8.42894516984735]
確率行列因数分解フレームワークに勾配増木木を統合して補助情報(MFAI)を活用することを提案する。
MFAIは自然に、非線形関係を柔軟にモデル化する能力など、勾配を増進した木の健全な特徴を継承する。
MFAIは、変分推論を利用して計算効率が高く、大規模なデータセットにスケーラブルである。
論文 参考訳(メタデータ) (2023-03-05T03:26:14Z) - A Novel Maximum-Entropy-Driven Technique for Low-Rank Orthogonal
Nonnegative Matrix Factorization with $\ell_0$-Norm sparsity Constraint [0.0]
データ駆動制御と機械学習では、大きな行列を小さく、低ランクな要素に分解する、という一般的な要件がある。
本稿では,直交非負行列分解(ONMF)問題に対する革新的な解を提案する。
提案手法は,文献と同等あるいは改善された復元誤差を実現する。
論文 参考訳(メタデータ) (2022-10-06T04:30:59Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z) - Entropy Minimizing Matrix Factorization [102.26446204624885]
NMF(Nonnegative Matrix Factorization)は、広く使用されているデータ分析技術であり、多くの実際のタスクで印象的な結果をもたらしました。
本研究では,上述の問題に対処するために,EMMF (Entropy Minimizing Matrix Factorization framework) を開発した。
通常、外れ値が通常のサンプルよりもはるかに小さいことを考えると、行列分解のために新しいエントロピー損失関数が確立される。
論文 参考訳(メタデータ) (2021-03-24T21:08:43Z) - Deep matrix factorizations [16.33338100088249]
深度行列分解 (deep matrix factorization, ディープMF) は, いくつかの特徴層を抽出するために導入された。
本稿では,総合的な文献レビューを通じて,深部MFの主なモデル,アルゴリズム,応用について述べる。
論文 参考訳(メタデータ) (2020-10-01T13:19:01Z) - A Flexible Optimization Framework for Regularized Matrix-Tensor
Factorizations with Linear Couplings [5.079136838868448]
行列とテンソルの分解を結合するフレキシブルなアルゴリズムフレームワークを提案する。
このフレームワークは、様々な制約、損失関数、線形変換との結合の使用を容易にする。
論文 参考訳(メタデータ) (2020-07-19T06:49:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。