論文の概要: CoarSAS2hvec: Heterogeneous Information Network Embedding with Balanced
Network Sampling
- arxiv url: http://arxiv.org/abs/2110.05820v1
- Date: Tue, 12 Oct 2021 08:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 23:08:55.014867
- Title: CoarSAS2hvec: Heterogeneous Information Network Embedding with Balanced
Network Sampling
- Title(参考訳): CoarSAS2hvec: バランスの取れたネットワークサンプリングを組み込んだ異種情報ネットワーク
- Authors: Ling Zhan, Tao Jia
- Abstract要約: 不均一情報ネットワーク(HIN)埋め込みは、異なる性質のエンティティ間の近接性を保持するノードの表現を見つけることを目的としている。
広く採用されているアプローチの族は、異種コンテキストのシーケンスを生成するためにランダムウォークを適用している。
HINの多部グラフ構造のため、ハブノードはサンプルシーケンスで過剰に表現される傾向にあり、ネットワークの不均衡なサンプルが発生する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Heterogeneous information network (HIN) embedding aims to find the
representations of nodes that preserve the proximity between entities of
different nature. A family of approaches that are wildly adopted applies random
walk to generate a sequence of heterogeneous context, from which the embedding
is learned. However, due to the multipartite graph structure of HIN, hub nodes
tend to be over-represented in the sampled sequence, giving rise to imbalanced
samples of the network. Here we propose a new embedding method CoarSAS2hvec.
The self-avoid short sequence sampling with the HIN coarsening procedure
(CoarSAS) is utilized to better collect the rich information in HIN. An
optimized loss function is used to improve the performance of the HIN structure
embedding. CoarSAS2hvec outperforms nine other methods in two different tasks
on four real-world data sets. The ablation study confirms that the samples
collected by CoarSAS contain richer information of the network compared with
those by other methods, which is characterized by a higher information entropy.
Hence, the traditional loss function applied to samples by CoarSAS can also
yield improved results. Our work addresses a limitation of the
random-walk-based HIN embedding that has not been emphasized before, which can
shed light on a range of problems in HIN analyses.
- Abstract(参考訳): ヘテロジニアス情報ネットワーク(hin)埋め込みは、異なる性質のエンティティ間の近接を保つノードの表現を見つけることを目的としている。
広く採用されている一連のアプローチはランダムウォークを適用して異種コンテキストのシーケンスを生成し、そこから埋め込みが学習される。
しかし、HINの多部グラフ構造のため、ハブノードはサンプルシーケンスで過剰に表現される傾向にあり、ネットワークの不均衡なサンプルが発生する。
本稿では,新しい埋め込み手法であるCoarSAS2hvecを提案する。
hin粗粒化手順(coarsas)を用いた自己不要な短配列サンプリングを用いて、hinの豊富な情報をよりよく収集する。
hin構造埋め込みの性能を改善するために最適化された損失関数が使用される。
CoarSAS2hvecは他の9つのメソッドを2つの異なるタスクで4つの実世界のデータセットでパフォーマンスする。
アブレーション研究では、CoarSASが収集したサンプルが、他の方法と比較してネットワークのリッチな情報を含んでおり、高い情報エントロピーが特徴であることを確認した。
したがって、CoarSASによる従来の損失関数も改善された結果が得られる。
本研究は,これまで強調されなかったランダムウォークベースのhin埋め込みの限界に対処し,hin解析における様々な問題に光を当てる。
関連論文リスト
- Fast Scalable and Accurate Discovery of DAGs Using the Best Order Score
Search and Grow-Shrink Trees [2.667401221288548]
有向非巡回グラフ(DAG)学習のためのベストオーダースコアサーチ(BOSS)とグロースシンクツリー(GST)
有向非巡回グラフ(DAG)を学習するためのベストオーダースコアサーチ(BOSS)とGST(Grow-Shrink Tree)を導入する。
論文 参考訳(メタデータ) (2023-10-26T10:03:12Z) - Joint Edge-Model Sparse Learning is Provably Efficient for Graph Neural
Networks [89.28881869440433]
本稿では,グラフニューラルネットワーク(GNN)における結合エッジモデルスパース学習の理論的特徴について述べる。
解析学的には、重要なノードをサンプリングし、最小のマグニチュードでプルーニングニューロンをサンプリングすることで、サンプルの複雑さを減らし、テスト精度を損なうことなく収束を改善することができる。
論文 参考訳(メタデータ) (2023-02-06T16:54:20Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - SHRIMP: Sparser Random Feature Models via Iterative Magnitude Pruning [3.775565013663731]
IMP (ShRIMP) を用いたスペーサーランダム特徴モデル(スペーサーランダム特徴モデル)を提案する。
提案手法は,2層密集ネットワークにおける疎く宝くじを作成・発見するための複合的なプロセスとみなすことができる。
論文 参考訳(メタデータ) (2021-12-07T21:32:28Z) - Deep Archimedean Copulas [98.96141706464425]
ACNetは、構造的特性を強制する、新しい差別化可能なニューラルネットワークアーキテクチャである。
我々は、ACNetが共通のアルキメデスコピュラスを近似し、データに適合する可能性のある新しいコプラを生成することができることを示した。
論文 参考訳(メタデータ) (2020-12-05T22:58:37Z) - MG-GCN: Fast and Effective Learning with Mix-grained Aggregators for
Training Large Graph Convolutional Networks [20.07942308916373]
グラフ畳み込みネットワーク(GCN)は、隣人層の情報を層ごとに集約することでノードの埋め込みを生成する。
GCNの高計算とメモリコストにより、大きなグラフのトレーニングが不可能になる。
MG-GCNと呼ばれる新しいモデルでは、精度、トレーニング速度、収束速度、メモリコストの点で最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2020-11-17T14:51:57Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Improving Generative Adversarial Networks with Local Coordinate Coding [150.24880482480455]
GAN(Generative Adversarial Network)は、事前定義された事前分布から現実的なデータを生成することに成功している。
実際には、意味情報はデータから学んだ潜在的な分布によって表現される。
ローカル座標符号化(LCC)を用いたLCCGANモデルを提案する。
論文 参考訳(メタデータ) (2020-07-28T09:17:50Z) - Ensembled sparse-input hierarchical networks for high-dimensional
datasets [8.629912408966145]
サンプルサイズが小さい環境では,高密度ニューラルネットワークが実用的なデータ解析ツールであることを示す。
提案手法は,L1-ペナルティパラメータを2つだけ調整することで,ネットワーク構造を適切に調整する。
EASIER-netは、異なるサイズの実世界のデータセットのコレクションにおいて、データ適応方式でネットワークアーキテクチャを選択し、平均的なオフザシェルフ手法よりも高い予測精度を達成した。
論文 参考訳(メタデータ) (2020-05-11T02:08:53Z) - Recent Developments Combining Ensemble Smoother and Deep Generative
Networks for Facies History Matching [58.720142291102135]
本研究は、ファシズムモデルのための連続パラメータ化を構築するためのオートエンコーダネットワークの利用に焦点を当てる。
本稿では,VAE,GAN,Wasserstein GAN,変分自動符号化GAN,サイクルGANの主成分分析(PCA),転送スタイルネットワークのPCA,スタイル損失のVAEの7種類の定式化をベンチマークする。
論文 参考訳(メタデータ) (2020-05-08T21:32:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。