論文の概要: Concept Factorization via Self-Representation and Adaptive Graph Structure Learning
- arxiv url: http://arxiv.org/abs/2505.03390v1
- Date: Tue, 06 May 2025 10:12:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.32653
- Title: Concept Factorization via Self-Representation and Adaptive Graph Structure Learning
- Title(参考訳): 自己表現と適応グラフ構造学習による概念因子化
- Authors: Zhengqin Yang, Di Wu, Jia Chen, Xin Luo,
- Abstract要約: 本稿では,自己表現と適応グラフ構造学習(CFSRAG)モデルに基づく概念因子化を提案する。
CFSRAGは自己表現法を用いてデータ間の親和性関係を学習し、学習された親和性行列を用いて動的グラフ正規化制約を実装する。
その結果、我々のモデルは、他の最先端モデルよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 8.990462532663871
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Concept Factorization (CF) models have attracted widespread attention due to their excellent performance in data clustering. In recent years, many variant models based on CF have achieved great success in clustering by taking into account the internal geometric manifold structure of the dataset and using graph regularization techniques. However, their clustering performance depends greatly on the construction of the initial graph structure. In order to enable adaptive learning of the graph structure of the data, we propose a Concept Factorization Based on Self-Representation and Adaptive Graph Structure Learning (CFSRAG) Model. CFSRAG learns the affinity relationship between data through a self-representation method, and uses the learned affinity matrix to implement dynamic graph regularization constraints, thereby ensuring dynamic learning of the internal geometric structure of the data. Finally, we give the CFSRAG update rule and convergence analysis, and conduct comparative experiments on four real datasets. The results show that our model outperforms other state-of-the-art models.
- Abstract(参考訳): コンセプトファクトリゼーション(CF)モデルは、データクラスタリングにおける優れたパフォーマンスのために、広く注目を集めている。
近年、データセットの内部幾何学的多様体構造を考慮し、グラフ正規化技術を用いて、CFに基づく多くの変種モデルがクラスタリングにおいて大きな成功を収めている。
しかし、クラスタリング性能は初期グラフ構造の構築に大きく依存する。
データのグラフ構造を適応的に学習するために,自己表現と適応グラフ構造学習(CFSRAG)モデルに基づく概念因子化を提案する。
CFSRAGは自己表現法を用いてデータ間の親和性関係を学習し、学習した親和性行列を用いて動的グラフ正規化制約を実装し、データの内部幾何学構造を動的に学習する。
最後に,CFSRAG更新規則と収束解析を行い,実際の4つのデータセットの比較実験を行った。
その結果、我々のモデルは、他の最先端モデルよりも優れていることがわかった。
関連論文リスト
- Introducing Diminutive Causal Structure into Graph Representation Learning [19.132025125620274]
本稿では,グラフニューラルネット(GNN)が専門的な最小の因果構造から洞察を得ることを可能にする新しい手法を提案する。
本手法は,これらの小型因果構造のモデル表現から因果知識を抽出する。
論文 参考訳(メタデータ) (2024-06-13T00:18:20Z) - Homophily-enhanced Structure Learning for Graph Clustering [19.586401211161846]
グラフ構造学習は、欠落したリンクを追加し、スプリアス接続を取り除くことで、入力グラフの精細化を可能にする。
グラフ構造学習におけるこれまでの取り組みは、主に教師付き設定を中心に行われてきた。
グラフクラスタリングのためのtextbfhomophily-enhanced structure textbflearning という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:53:30Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Adaptive Attribute and Structure Subspace Clustering Network [49.040136530379094]
自己表現型サブスペースクラスタリングネットワークを提案する。
まず、入力データサンプルを表現する自動エンコーダについて検討する。
そこで我々は, 局所的な幾何学的構造を捉えるために, 混合符号と対称構造行列を構築した。
構築された属性構造と行列に対して自己表現を行い、親和性グラフを学習する。
論文 参考訳(メタデータ) (2021-09-28T14:00:57Z) - Effective and Efficient Graph Learning for Multi-view Clustering [173.8313827799077]
マルチビュークラスタリングのための効率的かつ効率的なグラフ学習モデルを提案する。
本手法はテンソルシャッテンp-ノルムの最小化により異なるビューのグラフ間のビュー類似性を利用する。
提案アルゴリズムは時間経済であり,安定した結果を得るとともに,データサイズによく対応している。
論文 参考訳(メタデータ) (2021-08-15T13:14:28Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - Lossless Compression of Structured Convolutional Models via Lifting [14.63152363481139]
我々は, 情報を失うことなく, 対称性を検出し, ニューラルネットワークを圧縮する, シンプルで効率的な手法を提案する。
このような圧縮が構造的畳み込みモデルの大幅な高速化につながることを実験を通じて実証する。
論文 参考訳(メタデータ) (2020-07-13T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。