論文の概要: Regularizing Semi-supervised Graph Convolutional Networks with a
Manifold Smoothness Loss
- arxiv url: http://arxiv.org/abs/2002.07031v1
- Date: Tue, 11 Feb 2020 08:51:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:47:22.966854
- Title: Regularizing Semi-supervised Graph Convolutional Networks with a
Manifold Smoothness Loss
- Title(参考訳): Manifold Smoothness Lossによる半教師付きグラフ畳み込みネットワークの正規化
- Authors: Qilin Li, Wanquan Liu, Ling Li
- Abstract要約: グラフ構造に関して定義された教師なし多様体の滑らかさ損失を提案し、これは正規化として損失関数に追加することができる。
我々は,多層パーセプトロンおよび既存のグラフネットワークの実験を行い,提案した損失を追加することにより,連続的に性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 12.948899990826426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing graph convolutional networks focus on the neighborhood aggregation
scheme. When applied to semi-supervised learning, they often suffer from the
overfitting problem as the networks are trained with the cross-entropy loss on
a small potion of labeled data. In this paper, we propose an unsupervised
manifold smoothness loss defined with respect to the graph structure, which can
be added to the loss function as a regularization. We draw connections between
the proposed loss with an iterative diffusion process, and show that minimizing
the loss is equivalent to aggregate neighbor predictions with infinite layers.
We conduct experiments on multi-layer perceptron and existing graph networks,
and demonstrate that adding the proposed loss can improve the performance
consistently.
- Abstract(参考訳): 既存のグラフ畳み込みネットワークは、近傍集約スキームに焦点を当てている。
半教師付き学習に適用すると、ラベル付きデータの小さなポット上のクロスエントロピー損失でネットワークが訓練されるため、オーバーフィッティングの問題に陥ることが多い。
本稿では,正規化として損失関数に追加できるグラフ構造に関して定義された教師なし多様体の滑らかさ損失を提案する。
提案する損失と反復拡散過程との接続を抽出し,損失の最小化は無限階層による隣り合わせ予測と同値であることを示す。
我々は,多層パーセプトロンおよび既存のグラフネットワークの実験を行い,提案した損失を追加することにより,連続的に性能を向上させることを示す。
関連論文リスト
- Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Unsupervised Graph-based Learning Method for Sub-band Allocation in 6G
Subnetworks [1.0951772570165874]
グラフベース学習を用いた無線ネットワークにおける周波数サブバンド割り当てのための教師なし手法を提案する。
サブネットワーク配置を競合グラフとしてモデル化し,グラフカラー化とPottsモデルにインスパイアされた教師なし学習アプローチを提案し,サブバンド割り当てを最適化する。
論文 参考訳(メタデータ) (2023-12-13T12:57:55Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Adversarial contamination of networks in the setting of vertex
nomination: a new trimming method [5.915837770869619]
スペクトルグラフの埋め込みは、アルゴリズムの性能とフレキシブルな設定を提供する。
ブロック構造汚染とホワイトノイズ汚染の両方に対処できるモデル空間で動作する新しいトリミング法を提案する。
このモデルトリミングは理論解析に適しており、多くのシミュレーションにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-20T15:32:04Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - Partial Graph Reasoning for Neural Network Regularization [26.793648333908905]
ドロップアウト(Dropout)は、よく使われる正規化手法であり、ネットワーク最適化中にニューロンのc-tivationsを無効にする。
バックボーンの特徴からスタンドアローングラフを構築することで正規化関数を学習するDropGraphを提案する。
このアドオングラフはトレーニング中にネットワークを正規化し、推論中に完全にスキップすることができる。
論文 参考訳(メタデータ) (2021-06-03T12:57:01Z) - Multilayer Graph Clustering with Optimized Node Embedding [70.1053472751897]
多層グラフクラスタリングは、グラフノードをカテゴリまたはコミュニティに分割することを目指しています。
与えられた多層グラフの層をクラスタリングに親しみやすい埋め込みを提案する。
実験の結果,本手法は著しい改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2021-03-30T17:36:40Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Anisotropic Graph Convolutional Network for Semi-supervised Learning [7.843067454030999]
グラフ畳み込みネットワークは、高精度な予測結果を達成するのに有用であることが証明された効率的なノード埋め込みを学習する。
これらのネットワークはグラフの過度な平滑化と縮小効果の問題に悩まされており、それはグラフの端に線形ラプラシア流を用いて拡散するからである。
本稿では,ノードからの情報的特徴を捉える非線形関数を導入し,過度なスムーシングを防止し,半教師付きノード分類のための異方性グラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T13:56:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。