論文の概要: Academic Network Representation via Prediction-Sampling Incorporated Tensor Factorization
- arxiv url: http://arxiv.org/abs/2504.08323v1
- Date: Fri, 11 Apr 2025 07:47:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:18:16.459148
- Title: Academic Network Representation via Prediction-Sampling Incorporated Tensor Factorization
- Title(参考訳): 予測サンプリング型テンソル因子化による学術ネットワーク表現
- Authors: Chunyang Zhang, Xin Liao, Hao Wu,
- Abstract要約: 本稿では,学術ネットワークの正確な表現を学習するための予測に基づく遅延因子分解モデルを提案する。
実世界の3つの学術ネットワークデータセットによる実験結果から、PLFTモデルは、ネットワークエンティティ間の未探索の関係を予測する際に、既存のモデルよりも優れていることが示された。
- 参考スコア(独自算出の注目度): 13.738656799296258
- License:
- Abstract: Accurate representation to an academic network is of great significance to academic relationship mining like predicting scientific impact. A Latent Factorization of Tensors (LFT) model is one of the most effective models for learning the representation of a target network. However, an academic network is often High-Dimensional and Incomplete (HDI) because the relationships among numerous network entities are impossible to be fully explored, making it difficult for an LFT model to learn accurate representation of the academic network. To address this issue, this paper proposes a Prediction-sampling-based Latent Factorization of Tensors (PLFT) model with two ideas: 1) constructing a cascade LFT architecture to enhance model representation learning ability via learning academic network hierarchical features, and 2) introducing a nonlinear activation-incorporated predicting-sampling strategy to more accurately learn the network representation via generating new academic network data layer by layer. Experimental results from the three real-world academic network datasets show that the PLFT model outperforms existing models when predicting the unexplored relationships among network entities.
- Abstract(参考訳): 学術ネットワークへの正確な表現は、科学的影響を予測するなど、学術関係のマイニングにおいて非常に重要である。
テンソルの潜在因子化モデル(LFT)は,対象ネットワークの表現を学習する上で最も効果的なモデルの一つである。
しかし、学術ネットワークは、多くのネットワークエンティティ間の関係を十分に調査することは不可能であり、LFTモデルが学術ネットワークの正確な表現を習得することが困難になるため、しばしば高次元かつ不完全である。
本稿では,予測サンプリングに基づくテンソルの潜在因子化(PLFT)モデルを提案する。
1)学術ネットワークの階層的特徴を学習することでモデル表現学習能力を高めるためのカスケードLFTアーキテクチャの構築
2) ネットワーク表現をより正確に学習するために, 非線形アクティベーションを組み込んだ予測サンプリング戦略を導入する。
実世界の3つの学術ネットワークデータセットによる実験結果から、PLFTモデルは、ネットワークエンティティ間の未探索の関係を予測する際に、既存のモデルよりも優れていることが示された。
関連論文リスト
- Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - On Learnable Parameters of Optimal and Suboptimal Deep Learning Models [2.889799048595314]
ディープラーニングモデルの構造的および運用的側面について検討する。
本研究は,学習可能なパラメータ(重み)統計,分布,ノード間相互作用,可視化のニュアンスに着目した。
論文 参考訳(メタデータ) (2024-08-21T15:50:37Z) - TDNetGen: Empowering Complex Network Resilience Prediction with Generative Augmentation of Topology and Dynamics [14.25304439234864]
本稿では,ネットワークトポロジとダイナミックスの生成的データ拡張を通じてこの問題に対処するために設計された,複雑なネットワークに対する新しいレジリエンス予測フレームワークを提案する。
3つのネットワークデータセットの実験結果から,提案するフレームワークであるTDNetGenは,最大85%~95%の精度で高い予測精度を達成可能であることが示された。
論文 参考訳(メタデータ) (2024-08-19T09:20:31Z) - Leveraging advances in machine learning for the robust classification and interpretation of networks [0.0]
シミュレーションアプローチでは、Erd"os-R'enyiやSmall-worldのような適切なネットワーク生成モデルを選択する。
我々は、解釈可能な機械学習の進歩を利用して、様々なネットワーク属性に基づいて、生成モデルによってシミュレーションされたネットワークを分類する。
論文 参考訳(メタデータ) (2024-03-20T00:24:23Z) - Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural Networks [44.31729147722701]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Large-scale Dynamic Network Representation via Tensor Ring Decomposition [0.0]
大規模動的ネットワーク(LDN)はインターネット時代においてますます重要になっている。
本研究では、LDNの効率的な表現学習のためのRing(TR)分解に基づくモデルを提案する。
2つの実LDNに関する実験的研究により,提案手法が既存モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-04-18T08:02:48Z) - The Self-Simplifying Machine: Exploiting the Structure of Piecewise
Linear Neural Networks to Create Interpretable Models [0.0]
本稿では,分類タスクに対するPiecewise Linear Neural Networksの単純化と解釈性向上のための新しい手法を提案する。
我々の手法には、トレーニングを伴わずに、訓練された深層ネットワークを使用して、良好なパフォーマンスと単一隠れ層ネットワークを生成する方法が含まれる。
これらの手法を用いて,モデル性能の予備的研究およびウェルズ・ファーゴのホームレンディングデータセットのケーススタディを行う。
論文 参考訳(メタデータ) (2020-12-02T16:02:14Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。