論文の概要: OLGA: One-cLass Graph Autoencoder
- arxiv url: http://arxiv.org/abs/2406.09131v2
- Date: Mon, 26 Aug 2024 13:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-27 23:07:37.734941
- Title: OLGA: One-cLass Graph Autoencoder
- Title(参考訳): OLGA: 1-cLassグラフオートエンコーダ
- Authors: M. P. S. Gôlo, J. G. B. M. Junior, D. F. Silva, R. M. Marcacini,
- Abstract要約: ワンクラスラーニング(英: One-class learning、OCL)は、現実世界の問題に1つの関心のクラスがある場合に適用される一連のテクニックである。
One-cLass Graph Autoencoder (OLGA)はエンドツーエンドで、関心のあるインスタンスをカプセル化しながらグラフノードの表現を学習する。
OLGAは最先端の結果を達成し、5つの手法と統計的に有意な差がある他の6つの手法よりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One-class learning (OCL) comprises a set of techniques applied when real-world problems have a single class of interest. The usual procedure for OCL is learning a hypersphere that comprises instances of this class and, ideally, repels unseen instances from any other classes. Besides, several OCL algorithms for graphs have been proposed since graph representation learning has succeeded in various fields. These methods may use a two-step strategy, initially representing the graph and, in a second step, classifying its nodes. On the other hand, end-to-end methods learn the node representations while classifying the nodes in one learning process. We highlight three main gaps in the literature on OCL for graphs: (i) non-customized representations for OCL; (ii) the lack of constraints on hypersphere parameters learning; and (iii) the methods' lack of interpretability and visualization. We propose One-cLass Graph Autoencoder (OLGA). OLGA is end-to-end and learns the representations for the graph nodes while encapsulating the interest instances by combining two loss functions. We propose a new hypersphere loss function to encapsulate the interest instances. OLGA combines this new hypersphere loss with the graph autoencoder reconstruction loss to improve model learning. OLGA achieved state-of-the-art results and outperformed six other methods with a statistically significant difference from five methods. Moreover, OLGA learns low-dimensional representations maintaining the classification performance with an interpretable model representation learning and results.
- Abstract(参考訳): ワンクラスラーニング(英: One-class learning、OCL)は、現実世界の問題に1つの関心のクラスがある場合に適用される一連のテクニックである。
OCLの通常の手順は、このクラスのインスタンスを含むハイパースフィアを学習し、理想的には、他のクラスから見えないインスタンスを再現する。
さらに、グラフ表現学習が様々な分野で成功して以来、グラフのためのOCLアルゴリズムがいくつか提案されている。
これらのメソッドは、最初はグラフを表現し、2番目のステップでノードを分類する2段階の戦略を使用することができる。
一方、エンドツーエンドの手法では、ノードを1つの学習プロセスで分類しながらノード表現を学習する。
グラフのOCLに関する文献の3つの主要なギャップを強調します。
i) OCLの非カスタマイズ表現
(II)ハイパースフィアパラメータ学習における制約の欠如
(三)解釈可能性の欠如及び可視化。
本稿では,One-cLass Graph Autoencoder (OLGA)を提案する。
OLGAはエンドツーエンドであり、2つの損失関数を組み合わせることで、関心のインスタンスをカプセル化しながらグラフノードの表現を学習する。
そこで本研究では,関心事をカプセル化するハイパースフィアロス関数を提案する。
OLGAは、この新たなハイパースフィアロスとグラフオートエンコーダ再構築損失を組み合わせて、モデル学習を改善する。
OLGAは最先端の結果を達成し、5つの手法と統計的に有意な差がある他の6つの手法よりも優れていた。
さらに、OLGAは、解釈可能なモデル表現学習と結果を用いて分類性能を維持する低次元表現を学習する。
関連論文リスト
- Hierarchical Topology Isomorphism Expertise Embedded Graph Contrastive
Learning [37.0788516033498]
本稿では,新しい階層型トポロジアイソモーフィズムの専門知識をグラフに組み込んだコントラスト学習を提案する。
我々は,提案手法が複数の最先端GCLモデルに対して普遍的であることを実証的に実証した。
本手法は、教師なし表現学習環境において、最先端の手法を0.23%上回る。
論文 参考訳(メタデータ) (2023-12-21T14:07:46Z) - HomoGCL: Rethinking Homophily in Graph Contrastive Learning [64.85392028383164]
HomoGCL はモデルに依存しないフレームワークで、近隣のノードに固有の意味を持つ正の集合を拡大する。
我々は、HomoGCLが6つの公開データセットにまたがって複数の最先端結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-16T04:06:52Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - HCL: Improving Graph Representation with Hierarchical Contrastive
Learning [15.418743452614846]
階層的コントラスト学習(HCL)フレームワークは、階層的な方法でグラフ表現を明示的に学習する。
HCLはノード分類、ノードクラスタリング、グラフ分類を含む12のデータセットで競合性能を達成する。
論文 参考訳(メタデータ) (2022-10-21T15:07:46Z) - Unifying Graph Contrastive Learning with Flexible Contextual Scopes [57.86762576319638]
フレキシブルコンテキストスコープを用いたグラフコントラスト学習(略してUGCL)という自己教師型学習手法を提案する。
本アルゴリズムは,隣接行列のパワーを制御し,コンテキストスコープによるフレキシブルな文脈表現を構築する。
局所的スコープと文脈的スコープの両方の表現に基づいて、distLはグラフ表現学習のための非常に単純な対照的な損失関数を最適化する。
論文 参考訳(メタデータ) (2022-10-17T07:16:17Z) - Graph Soft-Contrastive Learning via Neighborhood Ranking [19.241089079154044]
グラフコントラスト学習(GCL)は,グラフ自己教師型学習の領域において,有望なアプローチとして登場した。
グラフソフトコントラスト学習(GSCL)という新しいパラダイムを提案する。
GSCLは地域ランキングを通じてGCLを促進するため、全く同様のペアを特定する必要がなくなる。
論文 参考訳(メタデータ) (2022-09-28T09:52:15Z) - Geometry Contrastive Learning on Heterogeneous Graphs [50.58523799455101]
本稿では,幾何学コントラスト学習(Geometry Contrastive Learning, GCL)と呼ばれる,新しい自己指導型学習手法を提案する。
GCLはユークリッドと双曲的な視点からヘテロジニアスグラフを同時に見ることができ、リッチな意味論と複雑な構造をモデル化する能力の強い融合を目指している。
4つのベンチマークデータセットの大規模な実験は、提案手法が強いベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-25T03:54:53Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Distance-wise Graph Contrastive Learning [21.790413668252828]
コントラスト学習(CL)は、グラフベースの半教師付き学習(SSL)で非常に効果的です。
DwGCL(Distance-wise Graph Contrastive Learning)手法を2つの視点から提案します。
5つのベンチマークグラフデータセットに関する実験は、DwGCLが以前のGCLメソッドよりも明確な改善をもたらすことを示しています。
論文 参考訳(メタデータ) (2020-12-14T11:44:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。