論文の概要: Transfer learning under latent space model
- arxiv url: http://arxiv.org/abs/2509.15797v1
- Date: Fri, 19 Sep 2025 09:25:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.102514
- Title: Transfer learning under latent space model
- Title(参考訳): 潜在空間モデルに基づく移動学習
- Authors: Kuangnan Fang, Ruixuan Qin, Xinyan Fan,
- Abstract要約: 対象ネットワークに類似した潜伏変数を持つネットワークからの情報を活用する転送学習手法を提案する。
それぞれの段階で十分な同定条件を導出し, 予測のための予測勾配アルゴリズムを設計する。
2つの実データセットのシミュレーション研究と解析により,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 1.2665468879312296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latent space model plays a crucial role in network analysis, and accurate estimation of latent variables is essential for downstream tasks such as link prediction. However, the large number of parameters to be estimated presents a challenge, especially when the latent space dimension is not exceptionally small. In this paper, we propose a transfer learning method that leverages information from networks with latent variables similar to those in the target network, thereby improving the estimation accuracy for the target. Given transferable source networks, we introduce a two-stage transfer learning algorithm that accommodates differences in node numbers between source and target networks. In each stage, we derive sufficient identification conditions and design tailored projected gradient descent algorithms for estimation. Theoretical properties of the resulting estimators are established. When the transferable networks are unknown, a detection algorithm is introduced to identify suitable source networks. Simulation studies and analyses of two real datasets demonstrate the effectiveness of the proposed methods.
- Abstract(参考訳): 遅延空間モデルはネットワーク解析において重要な役割を担い、リンク予測のような下流タスクには潜時変数の正確な推定が不可欠である。
しかし、推定されるパラメータの多さは、特に潜在空間次元が例外的に小さくない場合には、課題となる。
本稿では,対象ネットワークに類似する潜伏変数を持つネットワークからの情報を活用し,対象ネットワークに対する推定精度を向上させるトランスファー学習手法を提案する。
転送可能なソースネットワークが与えられた場合、ソースネットワークとターゲットネットワークのノード数の違いに対応する2段階の転送学習アルゴリズムを導入する。
それぞれの段階で十分な同定条件と設計を導出し、推定のための予測勾配降下アルゴリズムを設計する。
得られた推定器の理論的性質が確立される。
転送可能なネットワークが未知の場合、適切なソースネットワークを特定するために検出アルゴリズムを導入する。
2つの実データセットのシミュレーション研究と解析により,提案手法の有効性が示された。
関連論文リスト
- Contrastive Network Representation Learning [20.236657764682715]
ネットワーク表現学習は、ネットワークを低次元空間に埋め込み、構造的および意味的特性を保存しようとする。
本稿では,ネットワークエッジ埋め込みのための新しいコントラスト学習に基づく統計的アプローチを提案する。
本手法は,エッジ表現学習のための最小収束率を実現する。
論文 参考訳(メタデータ) (2025-09-14T15:25:59Z) - Fusing CFD and measurement data using transfer learning [49.1574468325115]
本稿では,伝送学習によるシミュレーションと計測データを組み合わせたニューラルネットワークに基づく非線形手法を提案する。
最初のステップでは、ニューラルネットワークがシミュレーションデータに基づいてトレーニングされ、分散量の空間的特徴を学習する。
第2のステップは、ニューラルネットワークモデル全体の小さなサブセットを再トレーニングするだけで、シミュレーションと測定の間の体系的なエラーを修正するために、測定データ上での変換学習である。
論文 参考訳(メタデータ) (2025-07-28T07:21:46Z) - Transfer Learning Under High-Dimensional Network Convolutional Regression Model [20.18595334666282]
ネットワーク畳み込み回帰(NCR)に基づく高次元移動学習フレームワークを提案する。
提案手法は、ソースとターゲットネットワーク間のドメインシフトに対処する2段階の転送学習アルゴリズムを含む。
Sina Weiboデータを用いたシミュレーションや実世界のアプリケーションを含む経験的評価は、予測精度を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2025-04-28T16:52:28Z) - Features are fate: a theory of transfer learning in high-dimensional regression [23.840251319669907]
対象タスクが事前学習されたモデルの特徴空間で適切に表現されている場合、転送学習はスクラッチからトレーニングに優れることを示す。
本モデルでは, 音源と目標タスクの重なり合う特徴空間が十分に強い場合, 線形転送と微調整の両方で性能が向上することを確認した。
論文 参考訳(メタデータ) (2024-10-10T17:58:26Z) - A Variational Bayesian Approach to Learning Latent Variables for
Acoustic Knowledge Transfer [55.20627066525205]
本稿では,ディープニューラルネットワーク(DNN)モデルにおける潜伏変数の分布を学習するための変分ベイズ(VB)アプローチを提案する。
我々の提案するVBアプローチは,ターゲットデバイスにおいて良好な改善が得られ,しかも,13の最先端知識伝達アルゴリズムを一貫して上回っている。
論文 参考訳(メタデータ) (2021-10-16T15:54:01Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Pre-Trained Models for Heterogeneous Information Networks [57.78194356302626]
異種情報ネットワークの特徴を捉えるための自己教師付き事前学習・微調整フレームワークPF-HINを提案する。
PF-HINは4つのデータセットにおいて、各タスクにおける最先端の代替よりも一貫して、大幅に優れています。
論文 参考訳(メタデータ) (2020-07-07T03:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。