論文の概要: A Brief Survey on Representation Learning based Graph Dimensionality
Reduction Techniques
- arxiv url: http://arxiv.org/abs/2211.05594v1
- Date: Thu, 13 Oct 2022 04:29:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 00:00:35.852641
- Title: A Brief Survey on Representation Learning based Graph Dimensionality
Reduction Techniques
- Title(参考訳): 表現学習に基づくグラフ次元化手法に関する簡単な調査
- Authors: Akhil Pandey Akella
- Abstract要約: 情報損失の度合いの異なる低次元に高次元で表されるデータをマッピングする。
グラフデータから埋め込みを効率よく生成し、それらを低次元の潜在空間に投影する手法はいくつか存在する。
本稿では,既存のグラフ次元削減技術に関連する問題点とともに,そのメリットを概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dimensionality reduction techniques map data represented on higher dimensions
onto lower dimensions with varying degrees of information loss. Graph
dimensionality reduction techniques adopt the same principle of providing
latent representations of the graph structure with minor adaptations to the
output representations along with the input data. There exist several cutting
edge techniques that are efficient at generating embeddings from graph data and
projecting them onto low dimensional latent spaces. Due to variations in the
operational philosophy, the benefits of a particular graph dimensionality
reduction technique might not prove advantageous to every scenario or rather
every dataset. As a result, some techniques are efficient at representing the
relationship between nodes at lower dimensions, while others are good at
encapsulating the entire graph structure on low dimensional space. We present
this survey to outline the benefits as well as problems associated with the
existing graph dimensionality reduction techniques. We also attempted to
connect the dots regarding the potential improvements to some of the
techniques. This survey could be helpful for upcoming researchers interested in
exploring the usage of graph representation learning to effectively produce
low-dimensional graph embeddings with varying degrees of granularity.
- Abstract(参考訳): 情報損失の度合いの異なる低次元に高次元で表されるデータをマッピングする。
グラフ次元削減技術は、入力データとともに出力表現に小さな適応を伴うグラフ構造の潜在表現を提供するのと同じ原理を採用している。
グラフデータから埋め込みを生成し、それらを低次元の潜在空間に投影する効率的な最先端技術がいくつか存在する。
運用哲学のバリエーションのため、特定のグラフ次元削減手法の利点は、あらゆるシナリオや、むしろすべてのデータセットに有利でないかもしれない。
その結果、いくつかの手法は低次元のノード間の関係を表現するのに効率的であり、他の手法は低次元空間上のグラフ構造全体をカプセル化するのに優れている。
本稿では,既存のグラフ次元削減技術に関連する問題点とともに,そのメリットを概説する。
また、潜在的な改善点といくつかのテクニックを結びつけることも試みました。
この調査は、グラフ表現学習を用いて、様々な粒度の低次元グラフ埋め込みを効果的に生成することに興味を持つ研究者にとって役立つだろう。
関連論文リスト
- A Comprehensive Survey on Graph Reduction: Sparsification, Coarsening, and Condensation [21.76051896779245]
本研究の目的は,グラフスペーシング,グラフ粗化,グラフ凝縮など,グラフ縮小手法の包括的理解を提供することである。
そこで本研究では,これらの手法の技術的詳細を体系的にレビューし,様々なシナリオにまたがる実践的応用を強調した。
論文 参考訳(メタデータ) (2024-01-29T01:19:09Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Exploring Graph Classification Techniques Under Low Data Constraints: A
Comprehensive Study [0.0]
ノードとエッジの摂動、グラフの粗大化、グラフ生成など、グラフデータの増大のためのさまざまなテクニックをカバーしている。
本稿は、これらの領域を深く探求し、さらに下位分類に着目する。
低データシナリオで直面するグラフ処理問題の解決に使用できる、幅広いテクニックの配列を提供する。
論文 参考訳(メタデータ) (2023-11-21T17:23:05Z) - Spectral Augmentations for Graph Contrastive Learning [50.149996923976836]
コントラスト学習は、監督の有無にかかわらず、表現を学習するための第一の方法として現れてきた。
近年の研究では、グラフ表現学習における事前学習の有用性が示されている。
本稿では,グラフの対照的な目的に対する拡張を構築する際に,候補のバンクを提供するためのグラフ変換操作を提案する。
論文 参考訳(メタデータ) (2023-02-06T16:26:29Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Hyperparameter-free and Explainable Whole Graph Embedding [16.03671347701557]
グラフ表現学習は、各ノードまたはグラフ全体の低次元表現ベクトルを学習しようとする。
本稿では,DHC(Degree, H-index, Coreness)定理とシャノンエントロピー(E)を組み合わせた新しいグラフ埋め込み法を提案する。
提案手法は低次元グラフの可視化において優れた性能を有する。
論文 参考訳(メタデータ) (2021-08-04T15:30:52Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Understanding Coarsening for Embedding Large-Scale Graphs [3.6739949215165164]
機械学習(ML)アルゴリズムによるグラフの適切な解析は、研究や産業の多くの分野において、より深い洞察をもたらす可能性がある。
グラフデータの不規則構造は、グラフ上でMLタスクを実行するための障害を構成する。
本研究では, 粗大化品質が埋込み性能に及ぼす影響を, 速度と精度の両方で解析する。
論文 参考訳(メタデータ) (2020-09-10T15:06:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。