論文の概要: A Multi-Metric Latent Factor Model for Analyzing High-Dimensional and
Sparse data
- arxiv url: http://arxiv.org/abs/2204.07819v1
- Date: Sat, 16 Apr 2022 15:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 15:54:36.202625
- Title: A Multi-Metric Latent Factor Model for Analyzing High-Dimensional and
Sparse data
- Title(参考訳): 高次元およびスパースデータ解析のためのマルチメトリック潜在因子モデル
- Authors: Di Wu, Peng Zhang, Yi He, Xin Luo
- Abstract要約: 高次元およびスパース(HiDS)行列は、様々なビッグデータ関連アプリケーションにおいて一様である。
現在のLFAベースのモデルは、主に、近似ロス関数用に設計された表現戦略が固定され排他的であるシングルメトリック表現に焦点を当てている。
本稿では,Multi-metric Latent Factor (MMLF) モデルを提案する。
提案するMMLFは, 異なる距離空間の集合から一斉に得られるメリットを享受し, HiDS 行列の包括的かつ偏りのない表現を実現する。
- 参考スコア(独自算出の注目度): 11.800988109180285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dimensional and sparse (HiDS) matrices are omnipresent in a variety of
big data-related applications. Latent factor analysis (LFA) is a typical
representation learning method that extracts useful yet latent knowledge from
HiDS matrices via low-rank approximation. Current LFA-based models mainly focus
on a single-metric representation, where the representation strategy designed
for the approximation Loss function, is fixed and exclusive. However,
real-world HiDS matrices are commonly heterogeneous and inclusive and have
diverse underlying patterns, such that a single-metric representation is most
likely to yield inferior performance. Motivated by this, we in this paper
propose a multi-metric latent factor (MMLF) model. Its main idea is two-fold:
1) two vector spaces and three Lp-norms are simultaneously employed to develop
six variants of LFA model, each of which resides in a unique metric
representation space, and 2) all the variants are ensembled with a tailored,
self-adaptive weighting strategy. As such, our proposed MMLF enjoys the merits
originated from a set of disparate metric spaces all at once, achieving the
comprehensive and unbiased representation of HiDS matrices. Theoretical study
guarantees that MMLF attains a performance gain. Extensive experiments on eight
real-world HiDS datasets, spanning a wide range of industrial and science
domains, verify that our MMLF significantly outperforms ten state-of-the-art,
shallow and deep counterparts.
- Abstract(参考訳): 高次元およびスパース(HiDS)行列は、様々なビッグデータ関連アプリケーションにおいて一様である。
潜在因子分析(LFA)は、低ランク近似を用いて、HiDS行列から有用な潜在知識を抽出する典型的な表現学習法である。
現在のlfaベースのモデルは、近似損失関数のために設計された表現戦略が固定かつ排他的であるシングルメトリック表現に主に焦点をあてている。
しかし、実世界のHiDS行列は一般に不均一で包摂的であり、単一のメートル法表現が劣った性能をもたらす可能性が最も高いような様々な基礎パターンを持つ。
そこで本研究では,多値潜在因子(MMLF)モデルを提案する。
主な考え方は2つある。
1) 2つのベクトル空間と3つのLp-ノルムは同時にLFAモデルの6つの変種を開発し、それぞれが一意な距離表現空間に存在する。
2)全ての変種は、調整された自己適応的な重み付け戦略でアンサンブルされている。
このように、提案したMMLFは、異なる距離空間の集合から一斉に派生したメリットを享受し、HiDS行列の包括的かつ偏りのない表現を実現する。
理論的研究はMMLFが性能向上を達成することを保証している。
8つの実世界のHiDSデータセットの大規模な実験は、幅広い産業領域と科学領域にまたがって行われ、我々のMMLFが最先端の浅く深い10のデータセットより著しく優れていることを検証した。
関連論文リスト
- Exploring the Alignment Landscape: LLMs and Geometric Deep Models in Protein Representation [57.59506688299817]
遅延表現アライメントは、異なるモダリティからの埋め込みを共有空間にマッピングするために使用され、しばしば大きな言語モデル(LLM)の埋め込み空間と一致している。
プリミティブなタンパク質中心の大規模言語モデル (MLLM) が登場したが、それらは表現の至る所で最適なアライメントの実践に関する根本的な理解が欠如しているアプローチに大きく依存している。
本研究では,タンパク質領域におけるLLMと幾何学的深部モデル(GDM)のマルチモーダル表現のアライメントについて検討する。
本研究は, モデルおよびタンパク質の観点からのアライメント要因について検討し, 現行アライメント手法の課題を特定し, アライメントプロセスを改善するための戦略を提案する。
論文 参考訳(メタデータ) (2024-11-08T04:15:08Z) - SurgeryV2: Bridging the Gap Between Model Merging and Multi-Task Learning with Deep Representation Surgery [54.866490321241905]
モデルマージに基づくマルチタスク学習(MTL)は、複数のエキスパートモデルをマージしてMTLを実行するための有望なアプローチを提供する。
本稿では,統合モデルの表現分布について検討し,「表現バイアス」の重要な問題を明らかにする。
このバイアスは、マージされたMTLモデルの表現と専門家モデルの間の大きな分布ギャップから生じ、マージされたMTLモデルの最適下性能に繋がる。
論文 参考訳(メタデータ) (2024-10-18T11:49:40Z) - Towards Scalable Semantic Representation for Recommendation [65.06144407288127]
大規模言語モデル(LLM)に基づく意味的IDを構築するために、Mixture-of-Codesを提案する。
提案手法は,識別性と寸法の堅牢性に優れたスケーラビリティを実現し,提案手法で最高のスケールアップ性能を実現する。
論文 参考訳(メタデータ) (2024-10-12T15:10:56Z) - VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition [3.4923338594757674]
大型言語モデル(LLM)は、様々な種類のエンティティを抽出できるモデルを訓練するために使用することができる。
本稿では,オープンソースのLLM LLaMA2をバックボーンモデルとして利用し,異なるタイプのエンティティとデータセットを区別するための具体的な命令を設計する。
我々のモデルVANERは、パラメータの小さな分割で訓練され、従来のLLMモデルよりも大幅に優れており、LLMをベースとしたモデルとして初めて、従来の最先端のBioNERシステムの大部分を上回りました。
論文 参考訳(メタデータ) (2024-04-27T09:00:39Z) - Synergistic eigenanalysis of covariance and Hessian matrices for enhanced binary classification [72.77513633290056]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
本手法は複雑なパターンと関係を抽出し,分類性能を向上する。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - SOFARI: High-Dimensional Manifold-Based Inference [8.860162863559163]
我々は2つのSOFARI変種を導入し、強力で弱い潜伏要因を扱えるようにし、後者は広範囲のアプリケーションをカバーする。
そこで我々は,SOFARIが潜在左因子ベクトルと特異値の両方に対して偏差補正推定器を提供し,その平均零正規分布を疎分散で楽しむことを示す。
本稿では,SOFARIの有効性を概説し,シミュレーション例による理論結果の正当化と,経済予測における実データの適用について述べる。
論文 参考訳(メタデータ) (2023-09-26T16:01:54Z) - Large-scale gradient-based training of Mixtures of Factor Analyzers [67.21722742907981]
本稿では,勾配降下による高次元学習を効果的に行うための理論解析と新しい手法の両立に寄与する。
MFAトレーニングと推論/サンプリングは,学習終了後の行列逆変換を必要としない精度行列に基づいて行うことができることを示す。
理論解析と行列の他に,SVHNやMNISTなどの画像データセットにMFAを適用し,サンプル生成と外乱検出を行う能力を示す。
論文 参考訳(メタデータ) (2023-08-26T06:12:33Z) - Multi-constrained Symmetric Nonnegative Latent Factor Analysis for
Accurately Representing Large-scale Undirected Weighted Networks [2.1797442801107056]
ビッグデータ関連アプリケーションでは、Undirected Weighted Network (UWN) が頻繁に発生する。
解析モデルは、UWNの固有対称性を記述するために、その対称性トポロジーを慎重に考慮する必要がある。
本稿では,2次元アイデアを用いた多制約対称性非負遅延要素分析モデルを提案する。
論文 参考訳(メタデータ) (2023-06-06T14:13:16Z) - Graph-incorporated Latent Factor Analysis for High-dimensional and
Sparse Matrices [9.51012204233452]
高次元かつスパース(HiDS)行列は、eコマースシステムやソーシャルネットワークサービスシステムのようなビッグデータ関連アプリケーションで頻繁に発生する。
本稿では,HiDS行列上で表現学習を行うために,グラフを組み込んだ潜在因子分析(GLFA)モデルを提案する。
実世界の3つのデータセットの実験結果から、GLFAはHiDS行列の欠落データを予測する6つの最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2022-04-16T15:04:34Z) - A Differential Evolution-Enhanced Latent Factor Analysis Model for
High-dimensional and Sparse Data [11.164847043777703]
本稿では,PLFAモデルにより最適化された潜在因子を改良するための逐次群差分進化(SGDE)アルゴリズムを提案する。
4つのHiDS行列の実験で示されたように、SGDE-PLFAモデルは最先端のモデルよりも優れている。
論文 参考訳(メタデータ) (2022-04-02T13:41:19Z) - Feature Weighted Non-negative Matrix Factorization [92.45013716097753]
本稿では,FNMF(Feature weighted Non- negative Matrix Factorization)を提案する。
FNMFはその重要性に応じて特徴の重みを適応的に学習する。
提案する最適化アルゴリズムを用いて効率的に解くことができる。
論文 参考訳(メタデータ) (2021-03-24T21:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。